Windenergie-Skandal in UK

Großbritannien von einem Windpark-Skandal erschüttert, der die Verbraucher mit 1,4 Milliarden Pfund zu stehen kommen wird

Sam Greenhill

Eine Windparkfarce, die 1,4 Milliarden Pfund IHRES Geldes vernichtete! Während Boris Johnson seine Vision propagiert, jedes Haus mit Turbinen zu versorgen, enthüllen wir den verpfuschten Plan, der die Rechnungen für 20 JAHRE aufblähen wird.

Boris Johnson hat erklärt, dass die Windkraft die Zukunft der britischen Energie ist

Aber eine Untersuchung hat ergeben, dass die Turbinenbesitzer über die Maßen bezahlt werden

Beamte setzen Subventionssatz so hoch an, dass er als „Lizenz zum Gelddrucken“ gebrandmarkt wurde

Ein verpfuschtes grünes Programm zahlt den Besitzern von Windturbinen das Siebenfache des Wertes des von ihnen erzeugten Stroms – und es wird die britischen Verbraucher schätzungsweise 1,4 Milliarden Pfund kosten.

Ein Subventionssatz für Windturbinenbesitzer könnte dazu führen, dass sie bis zu sieben Mal mehr als die von ihnen produzierte Strommenge einstecken, was als „Lizenz zum Gelddrucken“ bezeichnet wird.

Die Daily Mail kann das Augenfälligkeitsfiasko der Woche enthüllen. Boris Johnson erklärte, dass die Windkraft die Zukunft für die Energieerzeugung der Nation sei. Das Programm wurde ins Leben gerufen, um Hausbesitzer zu ermutigen, eine kleine Windmühle zu installieren, um ihren Bedarf zu decken und in das Stromnetz einzuspeisen.

Den Eigentümern wird für 20 Jahre eine Goldgrube an Bargeld garantiert, und das System ist so lukrativ, dass es einen Goldrausch unter den Investoren, darunter führende Pensionsfonds, ausgelöst hat.

Die Farce dieser grünen Initiative wurde in Nordirland ins Leben gerufen, aber die atemberaubenden Kosten werden dank höherer „grüner Abgaben“ auf die Rechnungen von privaten und geschäftlichen Versorgungsunternehmen in jeder Ecke des Vereinigten Königreichs zu spüren sein. Sie stellt die 500 Millionen Pfund in den Schatten, die durch einen früheren verpfuschten Skandal um grüne Energie in der Provinz verschwendet wurden, der als „Cash for Ash“ [etwa: Geld für Asche] bezeichnet wird und vor drei Jahren zum Sturz der Regierung Stormont führte.

Eine Untersuchung der Mail hat ergeben:

* Eine Turbine erntet etwa 375.000 Pfund pro Jahr, produziert jedoch Strom im Wert von nur 51.000 Pfund; 

* Die Subvention ist nur in Ulster verfügbar, erhöht aber die Energierechnungen in ganz Großbritannien um 71 Millionen Pfund pro Jahr;

* Da die Subvention für 20 Jahre garantiert ist, werden sich die Gesamtkosten für die britischen Verbraucher auf schätzungsweise 1,4 Milliarden Pfund belaufen;

* Unfähige Beamte versuchten, das Programm 2016 zu schließen – aber Schlupflöcher ließen es bis März 2019 laufen;

* In einem Ansturm auf die Errichtung von Turbinen vor der Frist wurden Hunderte errichtet, viele davon im Besitz von Risikokapitalgebern und sogar des Pensionsfonds der Royal Bank of Scotland.

Am Dienstag gab der Premierminister das dramatische Versprechen ab, bis 2030 jedes Haus mit Windstrom zu versorgen. Mr. Johnson sagte der Konferenz der Konservativen, er werde mit „Sturmangriffsgeschwindigkeit“ arbeiten, um seine „grüne industrielle Revolution“ einzuleiten.

Aber die Untersuchung der Mail deckt auf, wie ein bestehendes Windprogramm den Verbrauchern enorme Kosten aufbürdet. Es sollte Landbesitzern Anreize für die Errichtung kleiner Windturbinen bieten. Sie würden Gebühren für „sauberen“ Strom erhalten, der in das Stromnetz eingespeist würde. Sogar David Cameron errichtete eine in seinem Garten.

Die Minister nannten es eine „Belohnung für saubere Energie“. Um sie zu finanzieren, führten sie eine „grüne Abgabe“ ein. Diese so genannte „Erneuerbare-Energien-Pflichtabgabe“ erhöht die Stromrechnung eines typischen Haushalts um etwa 73 Pfund pro Jahr. Nach 2009 wurden diese Anreize als zu großzügig eingestuft und in England, Wales und Schottland drastisch gekürzt.

Doch nordirische Beamte hielten den Zinssatz unerklärlicherweise in dieser Höhe stabil – was bei wohlhabenden Investoren einen Ansturm auf die Installation klappriger Turbinen auslöste und ihnen praktisch risikofreie Einkommen bescherte. Gestern Abend sagte der Ökoenergie-Experte Dr. John Constable: „Jemand hat einen Fehler gemacht: so einfach ist das. Kluge Geschäftsleute sehen diese Fehler. Es gab einen totalen Ansturm. Einige Leute müssen sagenhaft reich geworden sein. Ich sah mir die Rede des Premierministers an und dachte: Geht das schon wieder los“.

Die Daten, auf denen die Berechnungen basieren, sind auf der Website der Energiebehörde Ofcom verfügbar. Auf einer trostlosen Bergkuppe südlich von Londonderry fand unsere Zeitung, dass die Windkraftanlage wahrscheinlich die größte ihrer Art in Großbritannien ist. Unter dem Namen „SP2045“ drehten sich ihre Flügel in der lebhaften Brise von Ulster im vergangenen Jahr genug, um Strom für etwa 51.000 Pfund zu erzeugen.

Aber diese spezielle Maschine ist weitere 324.000 Pfund mehr an grünen Subventionen wert. Insgesamt brachte SP2045 im Jahr 2019 £375.000 ein – mehr als das Siebenfache des Marktwertes des tatsächlich erzeugten Stroms.

Öffentliche Unterlagen zeigen, dass SP2045 einer Firma namens Simple Power No1 Ltd. gehört. Anhand von Akten des Unternehmens konnten wir es bis zum Pensionsfonds der Royal Bank of Scotland zurückverfolgen. Tatsächlich gibt es in den sanften Hügeln Nordirlands Hunderte von gebrauchten Turbinen, die sich im Besitz von Blue-Chip-Firmen befinden.

Die städtischen Finanzies, so scheint es, haben das Potenzial für üppige Renditen erkannt – und das vor allem, nachdem die Beamten den Subventionssatz für kleine Windparks auf einen verblüffend großzügigen Satz festgelegt hatten. Aus fadenscheinigen Gründen haben die Besitzer kleiner Windturbinen – definiert als solche mit einer Spitzenleistung von 250 Kilowatt – in Nordirland Anspruch auf eine Zahlung im Wert von etwa 220 Pfund für jedes Megawatt Strom, das sie pro Stunde erzeugen.

In anderen Teilen Großbritanniens ändert sich die Zahl jedes Jahr, im letzten Jahr betrug sie jedoch 16 Pfund. Und das zusätzlich zum Verkauf des tatsächlichen Stroms zum Marktpreis. Der Großhandelspreis für Strom schwankt, lag aber im vergangenen Jahr im Durchschnitt bei etwa 35 Pfund pro Megawattstunde. Der Eigentümer erhält also £35 für den Strom plus £220 an Subventionen, insgesamt £255 – mehr als das Siebenfache des Marktwertes des Stroms selbst.

Gleiches gilt nicht für Windmühlenbesitzer an anderen Orten im Vereinigten Königreich. Es gilt auch nicht für größere Turbinen.

Da die Subvention für 20 Jahre garantiert ist, werden sich die Gesamtkosten für die britischen Verbraucher auf schätzungsweise 1,4 Milliarden Pfund belaufen.

Dr. Constable, Direktor der Stiftung für Erneuerbare Energien dazu:

Der Fehler im öffentlichen Dienst führte zu einer Lizenz zum Gelddrucken. Diese kleinen 250kW-Turbinen sind seit Jahren veraltet, und niemand hätte sie damals gebaut, es sei denn als loophole Cash Cow [?] Sie rufe schrecklich hohe Subventionen ab, sind aber eine absolute Goldgrube für Investoren.

Der ganze Beitrag steht hier.
——————————

Neuer Windpark-Skandal dreimal schlimmer als „ Cash for Ash

Daily Mail
Die Enthüllungen der Mail werfen beunruhigende Fragen für Premierministerin Arlene Foster auf, die zu der Zeit, als 2009 der Goldgruben-Subventionssatz festgelegt wurde, Energieministerin der nordirischen Regierung war.

Mrs. Foster hatte auch den Vorsitz im ähnlichen „Cash for Ash“-Skandal, der ihre Regierung 2017 zu Fall brachte.

2017: Ein Grüne-Energie-Skandal bringt die Regierung von Nordirland zu Fall (hier)

Dieses fehlerhafte grüne System, bezeichnet als Renewable Heat Incentive [etwa: Erneuerbare-Wärme-Anreiz], zahlte den Kunden mehr für die Nutzung erneuerbarer Energie als die tatsächlichen Kosten des Brennstoffs. Einige Familien ließen ihre Heizkessel rund um die Uhr laufen, und unverantwortliche Bauern heizten leere Scheunen. Für jedes Pfund, den sie für die Heizung ausgaben, erhielten sie 1,60 Pfund an Subventionen zurück.

Eine vernichtende öffentliche Untersuchung kam Anfang des Jahres zu dem Ergebnis, dass das Schema niemals hätte angenommen werden dürfen. Der Vorsitzende Sir Patrick Coghlin äußerte sich kritisch über die Erste Ministerin, führte aber zu ihrer Entlastung an, dass sie von ihren Beamten falsche Informationen erhalten habe. Er warnte auch davor, dass sich eine solch katastrophale Situation wiederholen könnte, indem er sagte: „Es gibt keine Garantie dafür, dass die bei der Untersuchung aufgedeckten Schwächen in der Regierungsführung, der Personalausstattung und der Führung nicht noch einmal miteinander kombiniert werden können“. Die Kosten von „Cash for Ash“ für die Steuerzahler belaufen sich auf bis zu 500 Millionen Pfund.

Das neue Fiasko – das durchaus als „Son of Cash for Ash bezeichnet werden kann – ist möglicherweise dreimal so teuer.

Der ganze Beitrag steht hier.

——————————

Boris Johnson kündigt einen Anstieg der Strompreise um 200% an

GWPF
Der Premierminister ignoriert klare Beweise dafür, dass die den erneuerbaren Energien zugrunde liegende Wirtschaftlichkeit katastrophal ist, und hat Großbritannien heute zu einem weiteren Ausbau der Offshore-Windenergie bis 2030 verpflichtet, mit beängstigenden Auswirkungen auf die Strompreise, die sich verdreifachen müssten, um die tatsächlichen Kosten zu decken.

Dies ist nicht nur ökonomisch töricht, sondern auch inkohärente Klimapolitik, da die heutige Entscheidung dafür sorgen wird, dass andere Ziele für niedrige Emissionen, wie die Elektrifizierung von Fahrzeugen und die Heizung von Haushalten, für die meisten Briten unerschwinglich werden.

Die Offshore-Windenergie bleibt trotz Schall und Rauch der Windindustrie eine extrem teure Art der Stromerzeugung. Sollte der Premierminister sein Ziel erreichen, werden die laufenden Kosten sogar noch weiter steigen, da die Turbinen in tieferem Wasser gebaut werden müssen und die Betriebskosten viel höher sind.

Darüber hinaus erhöhen die versteckten Kosten für die Integration eines hohen Maßes an intermittierender Windenergieerzeugung in das Elektrizitätssystem die direkten Kosten der Windflotte um mindestens 50%.

Dieses übereilte und falsch konzipierte Versprechen gefährdet jede Aussicht auf eine Erholung nach Covid und nach Brexit in höchstem Maße. Angesichts der Gefahr wesentlich höherer Strompreise wird kein vernünftiger Investor Geld in britische Fertigungsbetriebe oder damit verbundene Unternehmen mit überdurchschnittlichem Stromverbrauch investieren.

Die Auswirkungen auf die Nettobeschäftigung sind ebenfalls verheerend. Subventionen können einige wacklige britische Arbeitsplätze in der Windindustrie und viele weitere in China und im Nahen Osten schaffen, wo Windturbinen hergestellt werden, aber sie werden den Verlust realer britischer Arbeitsplätze in anderen Unternehmen, die wegen hoher Energiekosten nicht mehr lebensfähig sind, nicht ausgleichen. Der Nettoeffekt für das Vereinigte Königreich wird stark negativ sein.

Dr. Benny Peiser, der Direktor der GWPF, sagte:

Die Zusage des Premierministers ist ein Geschenk an die grüne Lobby und ein Schlag ins Gesicht für gewöhnliche Familien und Unternehmen, die einen hohen Preis zu zahlen haben werden“.

Link: https://www.thegwpf.com/boris-johnson-announces-200-rise-in-electricity-prices/

Übersetzt von Chris Frey EIKE




Niemand hat die Absicht, eine Öko­diktatur zu errichten

Unter dem Mäntelchen einer vorgeblich vom Menschen verursachten Klimakatastrophe träumt man in diesen Kreisen von der „Großen Transformation“ zu einer ökologischen Weltgemeinschaft bis zum Jahre 2100. Die Gleichsetzung einer solchen vollsubventionierten Zwangstransformation mit der kulturellen Entwicklung des Ackerbaus und der technischen Industrialisierung als epochalen Umbrüchen in der Menschheitsgeschichte verkennt aber in ihrer Hybris, dass sich beide im freien Wettbewerb alternativer Möglichkeiten erfolgreich durchgesetzt hatten. Alle planwirtschaftlich gesteuerten Revolutionen hatten dagegen in Unfreiheit, wirtschaftlicher Not und gesellschaftlichem Chaos bis hin zum Massenmord geendet.

Die mediale Klimahysterie ist inzwischen im Vollpanik-Modus, und besonnene Stimmen werden nur noch als verzichtbare Störgrößen wahrgenommen. Klimaalarm ist alles und alles ist Klimaalarm. Ein schönes Beispiel lieferte der STERN auf dem Titelblatt seiner Ausgabe 40 vom 24. September 2020, Zitat, „#kein Grad weiter – Die Klimakrise ist längst da. Was wir jetzt tun müssen, um uns zu retten“.

Ja, da ist es schon wieder, dieses politisch-alternativlose „WIR“. Wer ist dieses ominöse „WIR“ eigentlich, und warum meint dieses „WIR“, uns alle zwangsweise vor einer „menschengemachten“ Klimakatastrophe retten zu müssen?

Schauen wir also mal auf die wissenschaftlichen Grundlagen dieses allgegenwärtigen Klimaalarms.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ (THE) löst das Arrhenius-Problem, nämlich die Diskrepanz von 33°C zwischen einer „theoretischen“ und einer „gemessenen“ globalen Durchschnittstemperatur. Und das anthropogen erzeugte CO2 soll nun diesen THE noch weiter verstärken. Sehen wir uns also zunächst einmal die vorgeblichen Eckwerte dieses THE an:

Quelle: Hamburger Bildungsserver. Werte nach Wild et al. (2017)

Und jetzt mal ein Blick auf die dortigen Zahlen:

In=Out: 342W/m² gehen ‘rein und (107+235=342)W/m² gehen wieder ‘raus

Bleiben also: 168W/m², 350W/m², 324W/m², „latente Wärme“ und „fühlbare Wärme“, aus denen am Ende 235W/m² herauskommen müssen

Man kann es drehen und wenden wie man will, nach der obigen Abbildung lautet die Gleichung für den „natürlichen atmosphärischen Treibhauseffekt“:

168W/m² +/- 350W/m² +/- 324W/m² +/- „latente Wärme“ +/- „fühlbare Wärme“ = 235W/m²

Es bleibt zunächst also völlig schleierhaft, welche physikalischen Verknüpfungen und welche mathematischen Zahlenwerte auf der linken Seite schließlich zu dem eindeutigen Ergebnis „235W/m²“ führen sollen. Jedenfalls beschreibt dieser THE von vorgeblich 33°C aus dem herkömmlichen 24h=Faktor4-THE-Ansatz die Differenz zwischen einer „theoretischen Globaltemperatur“ von (-18°C) und einer angeblich „gemessenen“ globalen Durchschnittstemperatur von (14,8°C) mit einem S-B-Strahlungsäquivalent von 155W/m². Es gibt beim THE offensichtlich keine Abhängigkeit von der Tageszeit und von der geographischen Breite, der THE ist also streng eindimensional.

Dieser THE soll zum kleineren Teil (etwa 9–26%) durch Kohlenstoffdioxid (CO2) verursacht werden und der zusätzliche anthropogene Ausstoß von CO2 seit Beginn der Industrialisierung soll diesen THE nun kontinuierlich weiter verstärken. Da das CO2 lateral einigermaßen gleichmäßig in der Atmosphäre verteilt ist und die IR-Abstrahlung der Erde über eine sogenannte „atmosphärische Gegenstrahlung“ als Antrieb für diesen atmosphärischen THE angenommen wird, muss man von der folgenden Wirkungskette ausgehen:

Primär: Die spezifische solare Strahlungsleistung auf der Tageshemisphäre erzeugt die Temperatur unserer Erde.

Sekundär: Die Infrarotabstrahlung der aufgeheizten Erde erfolgt über die gesamte Erdoberfläche.

Tertiär: Eine sogenannte „atmosphärische Gegenstrahlung“, die im Widerspruch zum 2.HS der Thermodynamik steht, soll dann wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben.

In der deutschen Zusammenfassung des IPCC-Berichtes „1,5 °C GLOBALE ERWÄRMUNG“ für politische Entscheidungsträger findet man auf Seite 11 unter Punkt B.1.2 folgende Aussage zum geweissagten „menschengemachten“ Klimawandel, Zitat: Extrem heiße Tage werden in den mittleren Breiten bei 1,5 °C globaler Erwärmung um bis zu etwa 3 °C wärmer und bei 2 °C bis zu etwa 4 °C wärmer, während extrem kalte Nächte in den hohen Breiten bei 1,5 °C bis zu etwa 4,5 °C und bei 2 °C bis zu etwa 6 °C wärmer werden (hohes Vertrauen).“

Beim sogenannten „menschengemachten“ Klimawandel fällt nun auf, dass nach Aussage des IPCC-Berichtes „1,5 °C GLOBALE ERWÄRMUNG“ eine Temperaturkomponente zum THE hinzutritt, denn seine Wirkung in extrem kalten Nächten soll angeblich größer sein, als an extrem heißen Tagen.

WIDERSPRUCH 1: Die vorgebliche Temperaturkomponente beim IPCC beruht auf der physikalischen T4-Beziehung des S-B-Gesetzes, nach der eine definierte spezifische Strahlungsleistung in W/m² bei niedrigerer Temperatur einen höheren Zuwachs in Kelvin ergibt, wie die obige Abbildung beweist. Diese IPCC-Aussage würde aber nur dann Sinn ergeben, wenn das CO2-Molekül aus sich selbst heraus und entgegen dem 2. HS der Thermodynamik bei beliebiger Außentemperatur eine konstante Strahlungsleistung abgeben würde. Wenn aber CO2 aus sich selbst heraus stahlen könnte, dann hätten wir alle schon längst eine betriebskostenfreie CO2-Heizung. Da nun einmal die solare Einstrahlung als Primärquelle für IR-Abstrahlung unserer Erde anzusehen ist, die wiederum eine „atmosphärische Gegenstrahlung“ als THE-Antrieb speisen soll, ist eine maximale Temperaturwirkung eines „menschengemachten Treibhauseffektes“ an extrem kalten Tagen völlig widersinnig.

Denn eine anthropogen verursachte Temperaturanomalie müsste im jeweiligen sommerlichen Strahlungsmaximum der Sonne und/oder aufgrund der Tageslängen im jeweiligen Polarsommer am deutlichsten hervortreten. Und andererseits dürfte ein „menschengemachter“ Treibhauseffekt in der Polarnacht nur rudimentär vorhanden sein, weil dort zu dieser Zeit die entsprechende primäre solare Strahlungsleistung fehlt, wie das beides in der nachfolgenden Abbildung dargestellt wird:

Abbildung: Tentative räumliche und zeitliche Auswirkungen auf einen „natürlichen atmosphärischen Treibhauseffekt“ mit Ableitungen aus meinem hemisphärischen Stefan-Boltzmann-Modell (nicht flächengetreu) Links: Jahresverlauf der maximalen solaren Strahlungsleistung mit den Beleuchtungsklimazonen Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel

Anmerkungen zu den Overlays in der linken Abbildung: Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne MAX Si (rot=940W/m², schwarz=0W/m²) in Abhängigkeit von der geographischen Breite und der Jahreszeit. Für den Nordwinter (linke Seite) und den Nordsommer (rechte Seite) wurden darüber jeweils die Beleuchtungsklimazonen der Erde projiziert (von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne von 940W/m² erhält immer derjenige Breitenkreis zwischen den Wendekreisen, an dem die Sonne mittags lotrecht steht. Dieses Maximum ist nicht zu verwechseln mit dem Maximum der 24h-durchschnittlichen Strahlungsleistung, das aufgrund der Länge des Polartages um die jeweilige Sommersonnenwende auf den Sommerpol fällt. Es lässt sich aus einem solchen 24h-Durchschnitt (=(Leistung @ 24h)/24h) allerdings kein entsprechendes S-B-Temperaturäquivalent ableiten, obwohl es immer wieder versucht wird. Halten wir also fest, dass am jeweiligen Sommerpol die tägliche solare ARBEIT (=Leistung*Zeit) am größten ist, während die tägliche solare MAXIMAL-LEISTUNG (die das S-B-Temperaturäquivalent bestimmt) auf den Bereich zwischen Äquator und dem sommerlichen Wendekreis beschränkt bleibt. Der sogenannte THE und seine „menschengemachte“ CO2-Verstärkung müssten sich also insbesondere auf der jeweiligen jahreszeitlichen Frühlings- und Sommerhemisphäre ganz deutlich herausbilden.

Ein 1:1-Experiment mit vorgeblich gemessenen IPCC-Temperaturdifferenzen

Betrachten wir also einmal ein 1:1-Experiment, nämlich die vorgeblich gemessene Realität auf unserer Erde. Im Framing and Context Supplementary Material zum IPCC Spezialbericht “Global Warming of 1.5°C” (SR1.5) von Oktober 2018 findet sich eine Abbildung zum sogenannten „menschengemachten Temperaturanstieg“. Dort wird in „Figure 1.SM.1“ die Jahreszeit der größten menschengemachten Erwärmung für den Zeitraum 2006-2015 gegenüber dem Zeitraum 1850-1900 dargestellt, also genau dieser vorgeblich vom Menschen verursachte Temperaturanstieg seit Beginn der Industrialisierung:

Abbildung: Die IPCC-„Figure 1.SM.1“ aus dem Framing and Context Supplementary Material des IPCC Spezialberichts “Global Warming of 1.5°C” (SR1.5) mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900

Die erratische Verteilung der jahreszeitlichen Temperaturanomalien in „Figure 1.SM.1“ stützt die konventionelle Treibhausthese nicht. Es hebt sich in dieser Abbildung weder das jahreszeitliche Strahlungsmaximum zwischen den beiden Wendekreisen noch die Tageslänge im jeweiligen Polarsommer optisch eindeutig hervor. Speziell die mittleren und höheren geographischen Breiten der jeweiligen Sommerhemisphäre, also Nordfrühling und Nordsommer (MAM und JJA) sowie Südfrühling und Südsommer (SON und DJF), zeigen in „Figure 1.SM.1“ nach qualitativer Farbgebung gar keine exklusiven jahreszeitlichen Temperaturanomalien. Vielmehr können wir in der „Figure 1.SM.1“ des IPCC die größte Veränderung in der Arktis ausgerechnet im Nordwinter (=Südsommer DJF-ockerfarben), also in der ausklingenden Polarnacht zwischen Wintersonnenwende und Frühlingsäquinoktium beobachten.

Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden das chaotische globale Wettergeschehen ab

Die beiden Steuergrößen „ursächlicher solarer Primärantrieb im solaren Strahlungsmaximum“ und die über „örtliche Tageslängen“ induzierte Gesamtwärmemenge lassen sich unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der jeweiligen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft.

WIDERSPRUCH 2: Ein proportionaler Zusammenhang zwischen einem „menschengemachten Temperaturanstieg“ über eine zusätzliche CO2-Verstärkung des „natürlichen atmosphärischen Treibhauseffektes“ und der jahreszeitlich maximalen örtlichen IR-Rückstrahlung unserer Erde bildet sich in den veröffentlichten IPCC-Daten (Figure 1.SM.1) nicht einmal ansatzweise ab.

Eine schnelle Erwärmung / Abkühlung in mittleren und höheren geographischen Breiten aufgrund der sich dort jahreszeitlich um die Äquinoktien herum schnell verändernden solaren Strahlungsleistung / örtlichen Tageslänge bildet mit seinen atmosphärischen Ausgleichsströmungen vielmehr das chaotische globale Wettergeschehen ab. Während also der herkömmliche 24h=Faktor4-THE-Flacherdeansatz im Arrhenius-Paradoxon eines unbewiesen konstruierten „natürlichen atmosphärischen Treibhauseffektes“ und einem Widerspruch zum 2. HS der Thermodynamik stecken bleibt, erlaubt mein hemisphärisches S-B-Modell ganz konkrete qualitative Aussagen zu Temperatur- und Klimadaten auf unserer realen Erde.

Mit Hinweis auf ein vorindustrielles klimatisches Paradies soll unsere Kohlenstoff-basierte Industriegesellschaft in ein globalisiertes Öko-Mittelalter zurück entwickelt werden

Mit dem Hinweis auf eine solch fragwürdige IPCC-Datengrundlage werden heute unter ganz harmlosen Begriffen wie „Große Transformation“ und „New Green Deal“ gesellschaftspolitische Bestrebungen als ein sich selbst finanzierender cargoistischer Potlatch inszeniert, um unsere Kohlenstoff-basierte Industriegesellschaft auf ein vorindustrielles Niveau zurück zu entwickeln. Eine abgehobene und sich allwissend gerierende politisch-mediale Klasse geht also in ihrer Hybris soweit, das „Weltklima“ vor dem Menschen retten, sogenannten „Atommüll“ für eine Million Jahre sicher wegschließen und einen Neuen Menschen erschaffen zu wollen, den ‚Die Tagespost‘ als „Homo climaticus“ beschreibt, Zitat:

Der Homo climaticus macht sein Dasein vom Kampf gegen das CO2 abhängig, ohne in der Regel viel über das angebliche Treibhausgas zu wissen. Zur inhaltlichen Gestaltung dieser Daseinsform boomt eine ganze Ratgeberliteratur, die empfiehlt: klimaneutral leben, essen, bauen, urlauben, ja sogar Ökosex und vieles mehr wird derzeit entdeckt. Schon seit einiger Zeit werden klimaneutrale Speisepläne entworfen. Butter gilt als noch klimaschädlicher denn Fleisch. Der Klimawandel darf sich nicht beschleunigen. Dafür wird alles auf den Prüfstand gestellt. Als wichtiges Ergebnis des Klimapakets fallen vor allem finanzielle Belastungen für die Bevölkerung auf, die aus sozialen Gründen wiederum kompensiert werden müssen.“

Bevor man aber nun den klimagerechten Rattenfängern folgt, sollte man sich vielleicht fragen, wo denn im Zeitraum 1850-1900 weltweit überhaupt flächenhafte Temperaturdaten über längere Zeiträume erhoben worden sein sollen, auf denen sich ja angeblich die IPCC-Abbildung 1.SM.1 zum „menschengemachten“ Klimawandel gründet. Allein die Entdeckungsgeschichte der Kontinente unserer Erde lässt größere Datenlücken vermuten, was eine NOAA-Darstellung derjenigen Gebiete bestätigt, in denen zwischen 1861 und 1890 mehr als 10 Jahre kontinuierlich Temperaturdaten erhoben worden waren:

Abbildung: IPCC Figure 1.SM.1 mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900 (links) NOAA Global Historical Climatology Network: Gebiete mit mehr als 10 Jahren kontinuierlicher Temperaturaufzeichnung im Zeitraum 1861-1890 (rechts, grau unterlegt)

Im Zeitraum zwischen 1861 und 1890 gab es auf den Weltmeeren und Polkalotten, sowie in Südamerika, Afrika und Asien (ohne Sri Lanka) laut NOAA-Graphik demnach kein einziges überwachtes Gebiet mit einer Aufzeichnungsdauer größer 10 Jahre. Die damaligen Temperatur-Meßstationen konzentrieren sich vielmehr auf Nordamerika, Europa und den Osten Australiens.

Dagegen zeigt die „Figure 1.SM.9“ aus dem “Framing and Context Supplementary Material” zum IPCC Report “Global Warming of 1.5°C (als diejenige von 3 gleichartigen Abbildungen mit den größten Temperaturanomalien) die regionale Veränderung der Dekade (2006-2015) relativ zur vorindustriellen Zeit:

Abbildung: “Figure 1.SM.9” aus dem “Framing and Context Supplementary Material” zum IPCC Report “Global Warming of 1.5°C für den GISTEMP-Datensatz. Die beiden anderen gleichartigen Abbildungen beziehen sich auf die Tempertaturdatensätze „NOAA“ (Figure 1.SM.8) und „HadCRUT4“ (Figure 1.SM.10).

Der zugehörige Abbildungstext von „Figure 1.SM.9“ verweist auf die mittlere Veränderung des externen Klimaforcings im Zeitraum 2006-2015 gegenüber dem vorindustriellen Zeitraum 1850-1900, die aus dem „GISTEMP“-Datensatz ermittelt worden sei. Erstaunlicherweise ist aber auch hier keinerlei systematische Verändertung der globalen Temperaturanomalien durch das jahreszeitlich variable örtliche Klimaforcing feststellbar, wie die nachstehende Abbildung belegt:

Abbildung: “Figure 1.SM.9” mit der Temperaturanomalie (2006-2015 gegenüber 1850-1900) aus dem “Framing and Context Supplementary Material” zum IPCC Report Global Warming of 1.5°C (links) vs. Tentative jahreszeitliche Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Nach der IPCC-“Figure 1.SM.9” ergeben sich erstaunlicherweise die größten Temperaturanomalien auf der Polkalotte der jeweiligen Winterhemisphäre, und daraus widerum ergibt sich ein diametraler Widerspruch zum THE-Postulat für eine durch die IR-Rückstrahlung der Erde verursachte tertiäre „atmosphärischen Gegenstrahlung“, die wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben soll.

WIDERSPRUCH 3: Nach „Figure 1.SM.9“ wäre der anthrtopogen verursachte Leistungsanstieg einer „atmosphärischen Gegenstrahlung“ (=Antrieb eines THE) umgekehrt proportional zur IR-Strahlungsleistung der Erdoberfläche (=Antrieb der „Gegenstrahlung“).

Es ist hier also festzustellen, dass das IPCC eigentlich melden müsste, „April, April – die Erde brennt gar nicht“. Selbst wenn wir den IPCC-Fauxpas mit dem 2. HS der Thermodynamik einmal hintenanstellen, so ist in den veröffentlichten IPCC-Daten selbst weder ein konkreter „THE-Fingerabdruck“ bei den vorgeblich „menschengemachten“ Temperaturresiduen nachweisbar, noch wird eine „atmosphärische Gegenstrahlung“ proportional zur IR-Abstrahlung der Erde erkennbar. Vielmehr bildet sich bei den Temperaturresiduen insbesondere das chaotische Wettergeschehen um die Äquinoktien ab, wie es sich in der raschen jahreszeitlichen Veränderung der maximalen spezifischen Strahlungsleistung der Sonne und/oder der örtlichen Tageslänge mit meinem hemisphärischen S-B-Ansatz leicht nachvollziehen lässt.

Das IPCC verkauft in seinem Bericht “Global Warming of 1.5°C” (SR1.5) also einen auf höchst fragwürdigen Vergleichsdaten (1850-1900) basierenden interpolierten 10-Jahre-Wettertrend als menschengemachte Klimaveränderung, denn die stärkste „menschengemachte“ Erwärmung hat ausgerechnet dort stattgefunden, wo der ursächliche Zusammenhang mit einem „natürlichen atmosphärischen Treibhauseffekt“ am geringsten wäre.

Die Weltklimarettung durch ein höheres „WIR“ ist weder alternativlos noch notwendig

Die hier vorgestellten Ergebnisse beweisen also insbesondere die Diskrepanz zwischen Anspruch und Wirklichkeit derjenigen IPCC-Grundlagendaten, mit denen die gesellschaftspolitischen Ziele zum Umbau unserer Industriegesellschaft in eine globalisierte Öko-Dystopie medial begründet und politisch vorangetrieben werden. Und irgendwie spiegelt sich dieser Wille zum „Systemwechsel“ auch in der Beibehaltung und Verschärfung der ursprünglichen Klimaziele bei absteigender Intensität der beschreibenden Begrifflichkeiten wider – von Klimakatastrophe über Klimaerwärmung und Klimawandel bis hin zu einer Klimakrise – wie sie, vom Temperaturanstieg zwischen 1975 bis 1995 bis hinein in die nachfolgende Erwärmungspause, fortlaufend an die tatsächlichen Gegebenheiten angepasst worden waren.
Das bevorstehende solare Minimum war zum Zeitpunkt des Klimaabkommens von Paris (2015) noch gar nicht in der Öffentlichkeit angekommen. Mit dem Begriff „Klimakrise“ könnte die staatsreligiöse Klimahysterie nun auch eine beginnende Kälteperiode für sich vereinnahmen. Vielleicht findet man dann ja abseits der seriösen Klimaforschung sogar ein paar willige Wissenschaftskurtisanen, die ganz zufällig die bestehende Lehrmeinung über die sogenannten „Klimagase“ in ihr aktuelles Gegenteil verkehren. So etwas ließe sich beispielsweise vordergründig durch die sogenannte Erwärmungspause bei steigenden atmosphärischen CO2-Werten begründen und dann in geeigneter Weise medial weiterverarbeiten; denn ohne eine strikte CO2-Vermeidung wäre ja schließlich die schönste globale Dekarbonisierung nichts wert…

Um in das gelobte ökologische Mittelalter zu gelangen, müssen wir also lediglich unsere technisch-naturwissenschaftlichen Erkenntnisse, unsere zuverlässige Energieversorgung und unsere wertschöpfende fossile Marktwirtschaft vernichten. Gleichzeitig bleiben die neu zu schaffenden „erneuerbaren“ Arbeitsplätze völlig unproduktiv und ihre subventionierten Schattenwelten werden am Ende der fossilen Wertschöpfung ganz von selbst zusammenbrechen, wenn es nichts mehr umzuverteilen gibt. Die Weltklimarettung durch ein „ÜBER-WIR“ ist also weder alternativlos noch wünschenswert. Vielmehr sollten WIR SELBST in EIGENER Verantwortung entscheiden, vor WAS wir uns von WEM retten lassen wollen und vor allem: WARUM SOLLTEN WIR EIGENTLICH?

 




Luftmassen – was heißt das?

Was ist eine Luftmasse?

„Offizielle“ Definitionen: Wetterlexikon bei Wetter.de: Über einem größeren Bereich lagernde oder zirkulierende Luftmenge mit einheitlichen Eigenschaften

Synoptische Meteorologie.de: Luftmassen sind riesige Luftkörper ähnlicher Temperatur, Luftfeuchtigkeit und Schichtung. Ihre horizontale Ausdehnung erreicht nicht selten mehrere Tausend Kilometer. Diese auch vertikal hochreichenden Luftkörper bilden sich meist in antizyklonalen und damit windschwachen Regionen. In diesen sogenannten Quellgebieten verbleiben sie tagelang quasistationär, sodass sie die thermischen und humiden Eigenschaften des Quellgebietes annehmen können. Erst im Zusammenhang mit Winden verlagern sich Luftmassen in andere Regionen und prägen dort das Wetter. Im Extremfall kommt es zu Hitze- und Kältewellen. Im Übergangsbereich zu anderen Luftmassen, an den sogenannten Luftmassengrenzen, entwickeln sich häufig markante Wettererscheinungen wie Starkregen, Gewitter oder Sturm.

Kurze Historie der Klassifikation

Die erste sinnvolle Klassifikation von Luftmassen führte der damalige Leiter des Meteorologischen Instituts der Freien Universität Berlin Prof. Dr. Richard Scherhag während der 1950er Jahre durch. Er unterschied zunächst vier Hauptluftmassen:

  • Arktische Luftmassen (A)

  • Polare Luftmassen (P)

  • Tropische Luftmassen (T)

  • Äquatoriale Luftmasse (E)

Hinzugefügt wurden dann noch die vorangestellten Indizes „m“ für maritime und „c“ für kontinentale Luftmassen.

Es zeigte sich aber mit der Zeit, dass diese Einteilung zu grob und zur Beschreibung für die Witterung in Mitteleuropa unzureichend war. So wurde eine auf das Festland strömende Meeresluft nicht nach einer bestimmten Zeit zu Festlandsluft ohne jeden Übergang. Zum Anderen wurde eine Luftmasse, die direkt aus der Arktis über das Nordmeer und die Nordsee hinweg nach Mitteleuropa strömte, genauso als „Meeresluft polaren Ursprungs“ bezeichnet wie eine Kaltluftmasse, die erst über dem Atlantik nach Süden strömt, etwa bis zu den Azoren, und dann von dort ihren Weg nach Mitteleuropa findet. Beides sind labil geschichtete, das heißt höhenkalte Luftmassen, die zu Schauern und Gewittern neigen. Der Temperaturverlauf ist jedoch gänzlich anders, vor allem im Winter. Zwar bringt die direkt aus Norden einströmende Meeresluft zumindest im Flachland auch kein richtiges Winterwetter, sondern eher der Jahreszeit entsprechende Temperaturwerte mit Naßschnee oder Schneeregen. Die von den Azoren einströmende Meeresluft – obgleich ebenfalls „polaren Ursprungs“ – bringt jedoch im Januar extrem mildes Wetter. Um diesem Umstand Rechnung zu tragen, wurde dann noch ein kleiner Index beigefügt, so dass beispielsweise die letztgenannte Luftmasse zu „mPt“ wurde.

Außerdem wurde zwar zwischen arktischer und subarktischer (subpolarer) Luft unterschieden, nicht jedoch nach tropischer und subtropischer Luft. So strömen tatsächlich nur sehr selten echte tropische, sondern bei entsprechenden Wetterlagen subtropische Luftmassen nach Mitteleuropa. Scherhag unterschied zwischen „tropischer“ und „äquatorialer“ Luft, doch sind diese beiden Begriffe klimatologisch gesehen ein und dasselbe.

Aus diesem Grunde machte sich der Scherhag-Schüler und spätere Geschäftsführende Direktor des Instituts Prof. Dr. Manfred Geb daran, dieses Konzept grundlegend zu überarbeiten und zu erweitern. So führte er zusätzlich zu den Indizes „m“ und „c“ die Bezeichnung „x“ ein. Damit trug er dem Umstand Rechnung, dass eine auf das Festland strömende und dort zur Ruhe kommende Meeresluft nicht sozusagen „ruckartig“ zu Festlandsluft wird, sondern erst einmal den Charakter einer „gemischt maritim und kontinental geprägten“ Luftmasse annahm. Eine Kaltluftmasse, die sich vor dem Eintreffen in Mitteleuropa stark erwärmt hatte, erhielt nun den nachgestellten Index „s“ und umgekehrt eine ehemalige Warmluftmasse, die große kältere Gebiete vor ihrem Eintreffen in Mitteleuropa überströmt hatte, den nachgestellten Index „p“. Damit ergab sich nach Geb die folgende Einteilung:

Tabelle: Luftmassenbezeichnungen nach Manfred Geb. Diese Klassifikation lässt sich grundsätzlich auch weltweit anwenden; lediglich der geografische Ursprung ist dann anders zu bezeichnen.

Anwendung dieser Klassifikation für die Vorhersage der Temperatur

Als der Autor zu Beginn der 1980er Jahre, aber auch schon als Student, nach seiner Diplom-Prüfung die Arbeit im Wettervorhersage- und Wirtschaftswetterdienst am Institut für Meteorologie der Freien Universität Berlin aufgenommen hatte, gab es natürlich noch nicht die zahlreichen numerischen Produkte von heute. Es gab zwar rudimentär bald erste numerisch gerechnete Vorhersagen, doch erwiesen sich diese für den praktischen Gebrauch als unzureichend. Erschwerend kam hinzu, dass das Institut mit seinem Wirtschaftswetterdienst nur für die Stadt Berlin (West) zuständig war, also für einen Punkt. Die Angabe einer Differenz bei der Vorhersage von Höchst- oder Tiefsttemperatur, wie sie in Flächenländern wie Bayern üblich und sinnvoll war, (und womit man Fehlvorhersagen ganz gut kaschieren konnte!) verbot sich also. Zwar gab und gibt es auch innerhalb des Stadtgebietes von Berlin mitunter beachtliche gleichzeitige Temperaturunterschiede wegen des WI-Effektes, doch war das Temperaturniveau abgesehen von diesen Einzelfällen etwa gleichmäßig.

So wurden nun am Institut Temperatur-Statistiken nach Luftmasse sowie nach Jahreszeit und Wetter erstellt über einen Zeitraum von 10 Jahren, nämlich von 1969 bis 1978. Es wurden vier „Wettertypen“ definiert von 1 (wolkenlos) bis 4 (trübe und regnerisch). Ggf. wurde noch eine fünfte Kategorie benutzt für anhaltenden Dauerniederschlag.

Nun ist das Auftreten verschiedener Luftmassen in Mitteleuropa räumlich und zeitlich sehr unterschiedlich verteilt. Im Winter und im Hochsommer dominieren bei den häufigen Westlagen vor allem die Luftmassen mP und mPs, im Frühling ist hingegen der Anteil kontinentaler und arktischer Luftmassen höher; im Herbst beherrschen mPs, alle Sp-Massen und/oder mS oft das Wettergeschehen. Die Luftmasse cA tritt im Sommer gar nicht, die Luftmasse cP nur sehr selten auf; Tropische Luftmassen (T) sind in allen Jahreszeiten extrem selten. Auch dazu haben Kämpfe et al. viele Beiträge geschrieben. Für die Erstellung einer Statistik ist nun aber ein möglichst häufiges Vorkommen von Datenpunkten erwünscht. Eine der am häufigsten in Mitteleuropa auftretenden Luftmassen ist die subpolare Meeresluft mP, und zwar zu allen Jahreszeiten. Als Beispiel für eine Luftmassen-Temperatur-Statistik sei hier der statistische Temperaturverlauf dieser Luftmasse unterschieden nach den vier Wettertypen gezeigt:

Abb. 1: Temperaturverlauf in Abhängigkeit von Jahreszeit und Wettertyp bei subpolarer Meeresluft mP. Der Verlauf gilt für den Punkt Berlin für 2 Meter Messhöhe über Grund, wo die Streuung durch verschiedenste Einflüsse wie den Wärmeinsel-Effekt hoch ist; eindeutiger und weniger abhängig von den Witterungstypen ist die Klassifikation für das 850-hPa-Niveau. Grafik: Autor

Bei dieser Klassifikation im 850-hPa-Niveau spielt ein anderer Parameter eine entscheidende Rolle. Die pseudoäquivalentpotentielle Temperatur oder abgekürzt pseudopotentielle Temperatur δps ist die Temperatur, die ein Wolkenluftpaket annähme, wenn es kondensierend unter ständigem Verlust an Flüssigwasser gehoben werden würde, bis der gesamte Wasserdampf kondensiert und ausgefallen wäre (vertikaler Temperaturgradient bei Kondensation 0,6°C pro 100 m) und es anschließend wieder trockenadiabatisch auf 1000 hPa absänke vertikaler Temperaturgradient 1°C pro 100 m). Damit ist die pseudopotentielle Temperatur ein Maß für den Energieinhalt einer Luftmasse. Sie beträgt nach GEB im Hochsommer für die Luftmasse mP, bezogen auf Mitteleuropa und das 850-hPa-Niveau, im Mittel 33°C; für die Luftmasse mS aber 50°C, während sich die Lufttemperatur, bezogen auf dieselbe Druckfläche und Jahreszeit, mit 5°C (mP) und 13°C (mS) weitaus weniger unterscheidet. Einfacher ausgedrückt: eine pseudopotentielle Temperatur (die man nicht messen, sondern nur aus „fühlbarer“ Temperatur und dem Feuchtegehalt rechnerisch ermitteln kann) von 50°C (mS) bedeutet eine Temperatur von 50°C bei einer Relativen Feuchtigkeit von 0 (Null) Prozent! Das werden wir hier nie erleben (nebenbei: Daran sieht man, welche Rolle Wasserdampf bzgl. der Lufttemperatur spielt).

Arktische und subpolare (subarktische) Luftmassen zeichnen sich tendenziell durch hohe Sichtweiten und ein tiefes Himmelsblau aus; tagsüber entstehen oft prächtige Haufenwolken bis hin zu kleinräumigen Schauern (Abb. 2a). Festlandsluft erkennt man besonders im Sommerhalbjahr an ihrer Wolkenarmut bei geringer relativer Luftfeuchte und hoher Temperaturamplitude zwischen Tag und Nacht. Subtropische Luftmassen sind gekennzeichnet durch Schwüle mit der Folge punktueller schwerer Gewitter (Abb. 2b) und die geringe nächtliche Abkühlung.

Abb. 2a und 2b: Gleicher Wolkentyp: Cumulonimbus capillatus, auf deutsch: Schauer/Gewitter. Abb. 2a(oben) zeigt eine solche Wolke in einer (sub-)arktischen Luftmasse – kleinräumig und überschaubar. Abb. 2b (unten) zeigt eine massive Unwetterwolke, wie sie für die Luftmasse xS typisch ist. Diese weht im Sommer von Südwesten nach Mitteleuropa, was erklärt, warum die von Kämpfe gefundene Häufung von Südwestlagen während der letzten Jahre auch recht häufig von schweren Unwettern in Deutschland begleitet war. Beide Fotos: Autor

Beispielhaft sei hier zur Verdeutlichung folgender Fall angenommen: Ein Vorstoß subpolarer Meeresluft (mP) bringt im Sommer Temperaturwerte unter dem Durchschnitt. Sollte diese Luftmasse aber über dem Festland zur Ruhe kommen, wird sie sich erwärmen und gleichzeitig Eigenschaften des Festlandes aufnehmen. Die resultierende Luftmasse wäre eine erwärmte, gemischt maritim und kontinental geprägte subpolare Luft (xPs). Im Winter bringt diese Luftmasse eher über dem Durchschnitt liegende Temperaturwerte. Kommt sie über dem Festland zur Ruhe, wird sie sich abkühlen und zu „subpolarer Luft“ (xP) werden. Was dabei auch noch zu beachten ist: Je höher die Meereskaltluft reicht (etwa im Bereich eines 500-hPa-Troges), umso länger dauert diese Umwandlung.

Nach eingehender Abschätzung von Luftmasse und Wettertyp lag hier also jetzt eine objektive Grundlage für die Temperaturvorhersage vor, bevor numerische Produkte diese Art der Vorhersage ersetzten. Dies zog sich jedoch bis in die 1990er Jahre hin.

Luftmassen in Mittleren Breiten

Ursprungsgebiete von Luftmassen sind naturgemäß die Breiten, in denen der Polar-Jet keine oder nur eine sehr untergeordnete Rolle spielt, also die Tropen/Subtropen und die Polargebiete. In den Polargebieten ist vor allem im Winter eine mehr oder wenige gleichmäßige Oberfläche vorhanden (ob der Schnee auf dem Festland oder auf Meereis liegt, spielt nun wirklich keine Rolle). In den Tropen jedoch gibt es markante Unterschiede zwischen tropischen Meeresgebieten und dem Festland. Die Passatwinde der Subtropen sorgen dafür, dass auch diese Luftmassen ausgetauscht werden. Bei bestimmten, zirkulationsarmen Wetterlagen, welche in den letzten Jahrzehnten häufiger wurden, gewinnt jedoch auch Zentral-Europa im weitesten Sinne als Entstehungsort von Luftmassen an Bedeutung. Wegen seiner geografischen Besonderheiten (Mitteleuropa ist strenggenommen nur eine extrem reich gegliederte Halbinsel zwischen Atlantik im Westen, Nord-und Ostsee im Norden und dem Mittelmeer im Süden) entstehen hier bevorzugt x-Massen; im Sommerhalbjahr meist die gemäßigte, europäische Warmluft xSp, seltener cSp, im Winter xP, xPs,, seltener cPs oder cP. Sprichwörtlich war am Institut in Berlin die „Bayerische Polarluft“, wenn nämlich im Winter nach dem Einströmen einer Meeresluftmasse von Westen her die Strömung im Bereich einer windschwachen Hochdruckzone auf Süd oder Südost drehte. Bodennah war dieser Vorgang mit einer markanten Abkühlung verbunden, während sich oberhalb der Reibungsschicht (ca. 1000 m) in dieser Hinsicht gar nichts tat.

In diesem Beitrag soll es aber hauptsächlich um den Wechsel von Luftmassen in mittleren Breiten, sprich in Mitteleuropa gehen. Der ständige Wechsel zwischen Luftmassen tropischen/subtropischen Ursprungs und solchen arktischen/subarktischen (subpolaren) Ursprungs ist bei uns ganzjährig die Regel und macht unser wechselhaftes Wetter aus. Ist eine Luftmasse am Rande des möglichen Spektrums (kalt bzw. warm) längere Zeit vorherrschend, wird es eine entsprechende Abweichung der Mitteltemperatur geben – wobei es hier noch egal ist, welchen Bezugszeitraum man zugrunde legt.

Dies gilt sowohl im kurzfristigen Maßstab als auch mittelfristig! Wenn Kämpfe et al. nachgewiesen haben, dass es über die letzten Jahre eine Häufung von Südwestlagen gegeben hatte, dann gab es naturgemäß auch eine Häufung des Zustromes milder/warmer Luftmassen. Denn auch zu kältesten Zeiten irgendeiner Eiszeit kann mit einer großräumigen Südwestströmung keine winterkalte Luft herangeströmt sein!

Luftmassenwechsel gibt es natürlich von Tag zu Tag (Wetter!). Aber auch im Abstand von einigen Wochen kann die Vorherrschaft einer bestimmten Luftmasse durch die Vorherrschaft einer anderen Luftmasse abgelöst werden (Witterung! Für diesen Begriff gibt es im Englischen keine Entsprechung!). Das hängt natürlich von den planetarischen Wellen der Westwindzone ab. Tröge sind allgemein mit Kalt-, Hochkeile mit Warmluftmassen angefüllt. Ob die Häufigkeitsverteilung warmer bzw. kalter Luftmassen durch irgendetwas moderiert wird, steht auf einem anderen Blatt und ist hier nicht das Thema.

Eigenschaften von Luftmassen in Mitteleuropa

Generell wird der Charakter von Luftmassen in Mitteleuropa von drei grundlegenden Faktoren bestimmt:

1) Das Ursprungsgebiet, aus welchem die jeweilige Luftmasse stammt,

2) den Weg, den sie bis zum Eintreffen in Mitteleuropa zurückgelegt hat, und

3) wie lange das gedauert hat.

Dazu kommen untergeordnete Fragen wie etwa: war/ist es in den Ursprungsgebieten gegenwärtig besonders warm/kalt? Sind die überströmten Land-/Meeresgebiete besonders warm/kalt? Eine Änderung der ozeanischen Wassertemperatur drückt einer diese Meeresgebiete überströmenden Luftmasse einen gewaltigen Stempel auf! Erleben durften das die Bewohner in Südaustralien und Südamerika im gerade zu Ende gegangenen Südwinter. Offenbar haben sich Luftmassen mit Ursprung in der Antarktis auf ihrem Weg über die eisfreien Meeresgebiete nach Australien deutlich weniger stark erwärmt als sonst (was immer hier „als sonst“ heißen soll). Die Folge waren sowohl in Südaustralien als auch in Südamerika „ungewöhnliche“ Schneefälle. Man darf aber wohl davon ausgehen, dass derartige Ereignisse dort vielleicht nicht in jedem Jahr, aber doch immer wieder vorkommen, vermutlich aufgrund irgendwelcher Oszillationen. (Nebenbei: Aus der völligen Ignoranz dieser Vorgänge seitens der hiesigen Medien folgert der Autor, dass es sich dabei vermutlich doch um ein recht seltenes Kalt-Ereignis handelte!).

Nach Mitteleuropa strömende Meeresluftmassen (aus Südwesten bis Nordwesten) werden natürlich entscheidend von der Wassertemperatur im Nordatlantik geprägt. Ob diese aufgrund bestimmter mächtiger Kräfte (z. B. der Atlantischen Multidekadischen Oszillation AMO) höher oder niedriger liegt (als was eigentlich?), ist von entscheidender Bedeutung für das Temperaturniveau der hier wetterbestimmenden Luftmasse. Die AMO ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Die AMO hat eine Periodendauer von 50 bis 70 Jahren und besitzt „warme“ und „kalte“ Phasen. Von 1900 bis 1925 sowie von etwa 1965 bis 1995 befand sie sich in einer kalten Phase, von etwa 1925 bis 1965 und seit etwa Mitte der 1990er Jahre in einer warmen Phase. Ob aufgrund dieser Oszillationen bestimmte Strömungsmuster bevorzugt werden (wie eben in letzter Zeit die Häufung von Südwestlagen), ist ebenfalls nicht Thema dieses Beitrags, auch wenn es Indizien gibt, dass dies tatsächlich der Fall ist. Siehe hierzu den Beitrag von Kämpfe hier. Daraus die folgende Abbildung:

Abbildung 3: Seit 1881, dem Beginn der Erstellung halbwegs verlässlicher Wetterkarten, hat sich die Häufigkeit der in Deutschland stark erwärmend wirkenden Südwestlagen merklich erhöht. Außerdem erwärmte sich der Nordatlantik, wobei es eine schwächere Warmphase um 1900, eine stärkere um 1945 und eine aktuelle, sehr starke, gibt. Die Kurvenverläufe der gleitenden Mittelwerte (fette Kurven) ähneln sich, wobei die AMO etwa 20% der Häufigkeitsvariabilität der SW-Lagen erklärt. Fast alle Jahre ganz ohne SW-Lagen traten vor 1950 auf; danach war nur 1991 frei von SW-Lagen; 2019 hatten wir 44 Tage.

Sollte das tatsächlich der Fall sein, dann kann man wohl mit einiger Sicherheit davon ausgehen, dass irgendwann (demnächst vielleicht?) auch wieder andere Strömungsmuster vorherrschend sind, z. B. winterliche Nordostlagen. Dem Autor scheint das ausschließlich eine Frage der Zeit zu sein – nicht ob, sondern wann es dazu kommt.

Die Kleine Eiszeit war vermutlich in Mitteleuropa nur deswegen so kalt, weil es bevorzugt zu Nordostlagen und/oder südlichen Westlagen (WS) gekommen war, bei denen der Jet-Stream südlich an Deutschland vorbei über das Mittelmeer hinweg verlief – aus welchen Gründen auch immer. Wenn in den Niederlanden die Grachten zufrieren, kann das nur eine von Osten auf direktem Weg heranströmende Festlandskaltluft bewirken – und auch das nicht über Nacht, sondern über einen längeren Zeitraum.

Und was hat das alles mit Klima zu tun?

Kurz gesagt: fast gar nichts!

Aus der Vorherrschaft bestimmter Luftmassen in Mitteleuropa (einem für das globale Wetter kleinen und unbedeutendem Punkt) gleich auf das Wetter des gesamten Globus‘ zu schließen, ist – gelinde gesagt – Humbug. Was aber einige Klima-Obergurus nebst willfährigen Kriech-Medien nicht daran hindert, genau das seit Jahrzehnten zu tun. Was auch immer die Ursache der von Kämpfe et al. beschriebenen Häufung von Südwestlagen in Mitteleuropa ist – das winzige bisschen Kohlendioxid in der Luft ist dafür mit Sicherheit nicht verantwortlich. Und wenn sich ein zum Klimagott hoch stilisierter Mann mit indischen Wurzeln hinstellt und sagt, dass „es bei uns keine Winter mehr wie noch vor zwanzig Jahren geben werde“, dann sagt er damit, dass es bei uns im Winter nie mehr den Zustrom von Luftmassen aus Nordosten geben wird. Das ist natürlich absoluter Unsinn. Aber es ist eben ein Gott, und Götter sind ja bekanntlich unfehlbar. Und wenn sich die Fakten nicht nach diesen göttlichen Geboten richten, dann sind diese Fakten eben leugnerisch und rechtsradikal.

Fazit: Das Temperaturniveau von Tagen, Monaten und Jahren wird bei uns durch das Vorherrschen bestimmter Luftmassen festgelegt, modifiziert durch die 4 bis 5 Wettertypen und das Temperaturprofil sowie das Geopotential der Troposphäre, wobei in den letzten Jahrzehnten die starke Häufigkeitszunahme der wolkenarmen, sonnigen Wettertypen und eine höhere Lage des 500hPa-Niveaus auffällig waren – und durch fast nichts sonst!

Nachtrag: Der Autor hat in den 1980er Jahren mal versucht zu ergründen, ob sich das Temperaturniveau ein und derselben Luftmasse in Mitteleuropa ändert, und zwar am Beispiel der subpolaren Meeresluft mP, der mit am häufigsten in Mitteleuropa wetterbestimmenden Luftmasse. Der Einfluss der o. g. Faktoren ist jedoch so vielfältig, dass der Versuch bald wieder aufgegeben wurde. Siehe auch hierzu die zahlreichen Arbeiten von Kämpfe & Kowatsch, zuletzt hier.

————————

Der Autor bedankt sich bei Herrn Stefan Kämpfe für die ausführliche Begutachtung dieses Beitrags sowie für ein paar Ergänzungen dazu.




Klimastreik: Angst erzeugen und ein wissenschaftliches Vakuum schaffen

Die Demonstranten in Toronto blockierten eine Kreuzung, während die Demonstranten in Moskau in ihren maßgefertigten grünen Hemden tanzten. In Indien protestierten Kinder vor dem Umweltministerium und hielten Plakate mit zweifelhaften Behauptungen in der Hand.

Selbst in Beirut, wo die vermeintliche Klimagefahr weitaus geringer ist als andere lebensbedrohliche Faktoren, kam es zu Streiks.

Begeistert über den Erfolg des organisierten Streiks twitterte die Aktivistin Thunberg: „Was für ein riesiger Erfolg! Maskiert und sozial distanziert kehrten Hunderttausende in über 3200 Orten auf allen Kontinenten, einschließlich der Antarktis, auf die Straße zurück und forderten Klimaaktionen! Der Kampf für eine Zukunft endet hier nicht. Dies ist erst der Anfang“.

Bravo! Es ist in der Tat ein großer Erfolg für diejenigen, die eine globale Massenveranstaltung organisiert haben. Der Streik war jedoch ein kolossaler Misserfolg, wenn das angestrebte Ziel darin bestand, ein Bewusstsein für den Klimawandel zu schaffen.

Der Grund dafür ist einfach: Die Schulstreikbewegung und ihre Milliarden Klimastreiks sprechen kaum über Klimawissenschaft. Stattdessen posaunen die Demonstranten lediglich ihre Überzeugung hinaus, dass die Klimakatastrophe unmittelbar bevorsteht. Ihre Aufmerksamkeit richtet sich auf die Angstmacherei und Verunglimpfung konventioneller fossiler Brennstoffressourcen.

Offensichtlich ist die Bewegung nicht wissenschaftlich. Oft stehen die Behauptungen der Demonstranten nicht im Einklang mit den harten Wahrheiten über das Klima und seine Veränderungen. Tatsächlich stehen die Behauptungen der Demonstranten oft in krassem Gegensatz zum tatsächlichen Klima.

Fake-Behauptungen und knallige Schlagzeilen



Klima-Alarmisten sind bekannt für ihre alarmierenden Phrasen, die mit der Realität äußerst unvereinbar sind. Thunberg sagt zum Beispiel: „Ich möchte, dass Sie so tun, als würde unser Haus brennen. Denn es brennt.“ Die Wahrheit ist, dass unser Haus, d.h. die Erde, nicht brennt.

Die globale Durchschnittstemperatur – eine grobe Schätzung dessen, was Wissenschaftler als Indikator für das Gesamtklima auf unserem Planeten ansehen – hat in den letzten zwei Jahrzehnten keinerlei Anzeichen für einen gefährlichen Anstieg gezeigt.

Im Jahr 2014 räumten Wissenschaftler des IPCC ein, dass ihre Prognosen bzgl. dieser globalen Durchschnittstemperatur falsch waren und dass es zwischen 2000 und 2014 zu einer unerwarteten Verlangsamung der Erwärmungsrate gekommen war.

Das hält diese Klima-Alarmisten und Demonstranten jedoch nicht davon ab, ihre Angstkampagne fortzusetzen. Klimaprotestierer konzentrieren sich auf Klimaprophezeiungen, nicht auf die harten Beobachtungsdaten der Vergangenheit.

Berühmtheiten wie Harrison Ford und Politiker wie Al Gore behaupten, dass „die Zeit für den Klimawandel knapp wird“. Nun, vielleicht ist es so – aber nicht in dem Sinne, den sie sich vorstellen. Die Zeit läuft den katastrophalen Behauptungen wirklich davon, da die globale Durchschnittstemperatur sich weiterhin beharrlich weigert, den Prophezeiungen der Panikmacher zu entsprechen.

CNN erklärte, dass die andauernde Pandemie die letzte Chance für uns ist, den Planeten vor dem Klimauntergang zu retten.

Sich am Klimastreik beteiligende Kinder sagen, die Zukunft gehöre ihnen, und die Erwachsenen von heute zerstören sie, indem sie gegenüber dem Klimawandel unsensibel sind. Sie sagen, eine Katastrophe sei sicher, weil „die Wissenschaftler“ dies sagen. Und wie genau sind die Prophezeiungen „der Wissenschaftler“, dass die Klimakatastrophe kommen wird? Indem sie Computerklimamodelle verwenden, von denen sie behaupten, sie seien vertrauenswürdig.

Allerdings deuten die Temperaturmessungen von Satelliten darauf hin, dass ein Großteil der aktuellen Rhetorik über eine beispiellose Erwärmung übertrieben ist, um ein falsches Gefühl von Alarmismus zu vermitteln.

Eine umfassende Analyse von Computer-Klimamodellen ergab, dass deren Vorhersagen die Veränderungen der realen Temperaturen nicht widerspiegelten und eine übertriebene Erwärmung zeigten. Diese Tatsache wurde im Jahre 2017 vor dem Ausschuss für Wissenschaft, Raumfahrt und Technologie des US-Hauses bezeugt.

Die Modelle haben sich seitdem nicht verbessert. Während die vorherige Generation von Modellen die Erwärmung stark übertrieben hat, schneidet die neue Generation, die sie ersetzt, noch schlechter ab und erzeugt 50 % mehr Oberflächenerwärmung als seit 1979 beobachtet. Sie sind in der Tat unzuverlässig und zeigen im Vergleich zu den tatsächlichen Beobachtungen ungewöhnlich hohe Temperaturniveaus.

Diese Modelle konnten nicht einmal die Veränderungen zwischen 2000 und 2019 erfassen. Es ist extrem fahrlässig, dass sich die gesamte alarmierende Bewegung auf fehlerhafte Modelle und deren ungenaue Vorhersagen stützt.

Wir leben in einer Welt mit einem hervorragenden Klima für die menschliche Zivilisation. Aber unsere politische und kulturelle Bühne ist von alarmierenden, sich auf fehlerhafte Computermodelle stützenden Theorien gekapert worden.

Die Alarmisten-Theorie wurde von den Mainstream-Medien der Bevölkerung so erfolgreich eingehämmert, dass ein großer Teil der breiten Öffentlichkeit getäuscht wurde, so dass die Behauptung der Medien als selbstverständlich hingenommen wurde.

Das letzte Tüpfelchen auf dem i ist die Indoktrination von Kindern im Schulalter, die glauben, dass sie aufgrund einer nirgendwo zu sehenden Klimakatastrophe keine Zukunft haben.

Je mehr man sich die Klima-Streik-Bewegung ansieht, desto mehr wird einem die wissenschaftliche Leere in ihr bewusst. Es ist eine kulturelle Bewegung mit starken finanziellen und politischen Elementen. Je früher sie endet, desto besser für die Millionen von Kindern, die dieser Lüge zum Opfer gefallen sind.

[Hervorhebungen vom Übersetzer]

This article was originally published on The Patriot Post.

Link: https://cornwallalliance.org/2020/10/climate-strike-instilling-fear-and-creating-a-scientific-void/

Übersetzt von Chris Frey EIKE




Traue keiner Statistik, die du nicht selber gefälscht kommen­tiert hast

Trump ist der größte Verbreiter von „Fake News“ über Corona … „

… schrieb der Chefredakteur einer nordbayerischen Tageszeitung im Leitartikel, verbunden mit dem penetrant üblichem, fast täglichem Trump-Bashing und Merkel „in den Hintern kriechen“:
Lokalausgabe der Nordbayerischen Nachrichten, 05. Oktober 2020, Leitkommentar des Redaktionsleiters, Zitat:
… Erst kurz zuvor fand eine Studie der Cornell Universitiy heraus heraus: Trump ist der größte Verbreiter von „Fake News“ über Corona. Die Uni wertete 38 Millionen Artikel im englischsprachigen Raum aus. Ergebnis: 38 % der Falschinformationen sind auf Trump zurückzuführen. Und: Der Präsident spielte die Gefährlichkeit des Virus wissentlich herunter, das war das Ergebnis der Recherchen der Reporterlegende Bob Woodward … und es ist etwas dran an den Internet-Parolen, wonach alle drei Männer (Anmerkung: Trump, Jair Bolsonaro, Boris Johnson) zwar starke Sprüche klopfen , aber versagen im Kampf gegen das Virus, während Frauen an der Macht wie Angela Merkel … viel erfolgreicher sind.

Diese Aussage hat der Chefredakteur natürlich nicht selbst erfunden. Sie wurde von der AFP etwas abweichend verbreitet:
[4] AFP 1. Oktober 2020: Studie: Trump größter Antreiber von Corona-Falschinformationen
und erwartungsgemäß von vielen deutschen Medien kopiert und leicht abgeändert publiziert [3].

Wer liest, dass jemand weltweit 38 Millionen Artikel „auswertete“, weiß, dass das unmöglich ist. Eine solche Studie muss deshalb ziemlich wertlos sein und man vermutet sofort, dass sie nur erstellt wurde, um eine gewünschte Aussage zu erhalten.
Ob es in diesem Fall zutrifft, hat der Autor nachgesehen und an die Redaktion eine geharnischte Rückantwort verfasst.
Die Sichtung daraus könnte manche EIKE-Leser interessieren, deshalb diese anbei.

Die Studie

Studie: [2] The Cornell Alliance for Science,Department of Global Development, Cornell University, Ithaca, NY, Cision GlobalI insights, Ann Arbor MI, Sarah Evanega et al.: Coronavirus misinformation: quantifying sources and themes in the COVID-19‘ infodemic

Zuerst fällt auf, dass diese „Studie“ (inclusive Fundstellen 14 Seiten lang) gar nicht von der genannten Universität verfasst wurde. Ein NGO – hauptsächlich finanziert unter anderem von „Our primary source of support is a grant from the Bill & Melinda Gates Foundation“ – …
(Anmerkung: Die Erwähnung von „Bill Gates“ und „Bill & Melinda Gates Foundation“ gehört zu den erklärten „Misinformationen“ der Studie).

Bild 1 [2] (Auszug) Table 2: The 11most prevalent misinformation/conspiracy sub-topics in terms of frequency of appearance in traditional media coverage

… beauftragte sie bei einer Agentur für Medienanalysen. Der NGO selbst hat lediglich eine Kooperation mit der Universität New York Times, 30. Sept. 2020: Study Finds ‘Single Largest Driver’ of Coronavirus Misinformation: Trump
The Cornell Alliance for Science, which spearheaded the study, is a nonprofit devoted to using science to enhance food security and improve environmental sustainability. One of its aims is to promote science-based decision-making. Dr. Evanega and a Cornell colleague, Mark Lynas, partnered with media researchers at Cision, a company that performs media analysis, to conduct the study. Dr. Evanega said the study was being peer reviewed by an academic journal, but the process was lengthy and the authors withdrew it because they felt they had compelling public health information to share.

Analyseverfahren

Arbeitszeit ist teuer. Zum Glück hilft da „künstliche Intelligenz“. Wie sonst würde man es schaffen, 30 Millionen Publizierungen genau zu analysieren.
Und so wurden die Publizierungen per Suchfunktion nach „guten“ und „falschen“ Begriffen durchkämmt und die Anzahl der Funde gezählt. Soziologen – hier Medienanalysten – wissen dann ganz genau, was in den Publizierungen steht:
Studie: [2]: … This database was queried using an English-language search string for misinformation topics in the context of COVID-19.The search string included variations on common thematic keywords (“COVID-19”,“coronavirus”, “2019-nCoV”, etc.) and used Boolean operators such as AND,OR, NOT, and proximity terms to sift for relevant content ...

Studie: [2]: … There is obviously a distinction to be made between misinformation per se (defined as information that is likely to mislead the audience) and information that discusses misinformation topics or the phenomenon of the infodemic with the explicit objective of debunking or correcting factual inaccuracies. We explicitly isolate this fact-checking coverage within the broader misinformation sample by identifying common terms used to identify misinformation as false, such as “fact-check” and “false claim”, as well as the use of terms like “misinformation“ and „conspiracy theory“ which inherently imply that the narratives they reference are untrue.

In der Studie selbst stehen die folgenden Aussagen

Studie: [2] From January 1 to May 26, 2020, English-language traditional media outlets published over 1.1 million individual articles (total 1,116,952) mentioning COVID-19 misinformation. This represented just under 3% of the overall COVID-19 conversation (total 38,713,161 articles) during the same timeframe.

Bild 2 Tabelle: Screenshot der Zusammenfassung in der Studie [2]

Zusammenfassung

Gesichtet wurden weltweit38.713.161 englischsprachige Publikationen zu Covid-19.
Davon enthielten angeblich 1,1 Millionen (weniger als 3 %) Falschinformation zu Covid-19.

Von diesen 1,1 Mio. Publikationen mit „Falschinformation“ bezogen sich:
46,6 % allgemein auf „Missinformation“
37,9 % auf Publikationen, in denen neben anderen auch Trump (zu Covid-19) erwähnt wurde
10,3 % auf Publikationen, in denen (zu Covid-19) nur Trump vorkam

Folgerung

Sofern jemand der festen Überzeugung ist, dass alles, was Trump zu Covid-19 sagt(e), automatisch eine Falschinformation sei, wäre die Aussage der Studie:
Weltweit publizierten englischsprachige Medien zu Covid-19:
– zu über 97 % nur Wahres
– In Summe weniger als 3 % publizierten Unwahrheiten
– ca. 1,14 % (bzw. 37,9 % der 3 %) publizierten neben anderem auch die als Unwahrheiten deklarierten Aussagen von Trump
– und 0,3 % (bzw. 10,3 % der 3 %) publizierten nur „unwahre“ Aussagen von Trump

Es wurde demnach lediglich “herausgefunden“, dass 1,44 % (1,114 % + 0,3 %) aller englischsprachigen Medien weltweit – sofern sie zu Covid-19 publizierten -, auch (Covid-19) Äußerungen von Trump verbreiteten.

Zusätzlich wurde „herausgefunden“, dass 16,4 % der zu Covid-19 „Falschinformation“ publizierenden Medien dies „ohne journalistischen Faktencheck“ publizieren würden:
[3] Das Forscherteam der Universität Cornell fand heraus, dass nur in 16,4 Prozent der Fälle von verbreiteten Desinformationen ein journalistischer Faktencheck stattgefunden habe. Die Mehrheit der Falschbehauptungen sei somit ohne Hinterfragung oder Korrektur verbreitet worden. Die Medien spielen daher eine „übergroße Rolle“ bei der Verbreitung von Desinformation. „Durch unkritische Berichterstattung über Aussagen und Bemerkungen durch einflussreiche Persönlichkeiten, ohne diese notwendigerweise zu verifizieren oder die Korrektheit der Behauptungen zu prüfen, riskieren Medien ungewollt zur Verbreitung von Desinformation beizutragen“, heißt es in der Schlussfolgerung der Studie.

Nun sind 16,4 % der Fälle von „Desinformation“ immer noch 190.468 Publizierungen. Wie das Rechercheteam herausfand, dass genau diese (von den „gesichteten“ 38.713.161 Publizierungen) „ohne Faktencheck“ durchgeführt wurden, wird wohl für ewig ihr Geheimnis bleiben.

Wie sich das Studienergebnis auf dem Kommunikationsweg ins Gegenteil verdrehte

Aber solch eine „Studie“ wurde ja nicht grundlos beauftragt. Also muss eine dem Auftragswunsch entsprechende Auslegung her.

Im Summary der Studie steht:
We found that media mentions of US President Donald Trump within the context of COVID-19 misinformation made up by far the largest share of the infodemic.
Grobe Übersetzung: Wir fanden heraus, dass Medienerwähnungen von US-Präsident Donald Trump im Rahmen von COVID-19-Fehlinformationen den mit Abstand größten Anteil an der Information ausmachen.
Damit sagt die Zusammenfassung im Summary eindeutig, dass die Medienerwähnungen und nicht Trump selbst den Anteil ausmachen.

Lediglich bei der „37,9 %“ Kommentierung wird Trump als „wahrscheinlich größter Treiber“ von Missinformation bezeichnet.
… Trump mentions comprised 37.9% of the overall “infodemic.” • However, a substantial proportion of other topics was also driven by the president’s comments, so some overlap can be expected. This strengthens the conclusion that the President of the United States was likely the largest driver of the COVID-19 misinformation “infodemic.”

Grobe Übersetzung: dass der Präsident der Vereinigten Staaten wahrscheinlich der größte Treiber der „infodemischen“ COVID-19-Fehlinformation war …

In einer Kurzfassung der Studie auf der Homepage der Cornell Alliance for Science steht ebenfalls, dass die Ursache die Erwähnung (durch die Medien) von Trump ist:
CORONAVIRUS MISINFORMATION: Quantifying sources and themes in the COVID-19 ‘infodemic’
Key takeaways from the results It is apparent from the data that
mentions of President Trump within the context of COVID-19 misinformation comprise by far the largest single component of the “infodemic.
Grobe Übersetzung: Die Erwähnung von Präsident Trump im Zusammenhang mit der Fehlinformation von COVID-19 stellt bei weitem die größte Einzelkomponente der „Infodemie“ dar.

In den Medien wird daraus:
Beim DW eine Aussage, die sich ohne Hintergrundwissen zur Studie nicht interpretieren lässt:
[3] DW 02.10.2020: DESINFORMATION Wie Donald Trump zum größten Antreiber von Corona-Fake-News wurde
In vielen jedoch die falsch Darstellung, Trump würde die „Fake News“ verbreiten:
t-online 02.10.2020: Studie: Trump verbreitet die meisten Corona-„Fake News“
Der Redakteur setzte in seinem Leitkommentar noch ein i-Tüpfelchen dazu und dichtete: Trump ist der größte Verbreiter von „Fake News“ über Corona
Dass Trump die Aussagen verbreiten würde, ist eindeutig eine Falschaussage, da Umkehrung der Studienaussage, welche den (dummen) Medien die Schuld für deren Verbreitung gibt.

Die Studie fand lediglich heraus, dass Medien auch Aussagen von Trump publizieren

Die Studie stellt lediglich eine Banalität fest: Trump sagt oder twittert auch zu Covid-19, was man einem Regierungsverantwortlichen wohl kaum ankreiden kann. Das verbreiten einige Medien, weltweit allerdings verblüffend wenige, nämlich ca. 1,44 %.
In den Augen eines Chefredakteurs einer deutschen Zeitung, welche alle Aussagen der unfehlbaren Merkel postwendend ungeprüft publiziert (rein persönliche, durch nichts belegbare Meinung des Autors), ist das natürlich etwas ganz, ganz Schlimmes. Auf die Idee, dass die Studie zeigt, wie viel besser ausländische Medien sind, indem nur ein ganz geringer Anteil ungeprüft publiziert (falls die Studienanalyse zu diesem Punkt stimmen würde), kam er nicht.

Wenn eine Studie mit der genau gleichen Argumentation und „wissenschaftlichen Fundierung“ festlegt, dass Aussagen der unfehlbaren Frau Merkel zu Covid-19 ebenfalls bedenklich wären, käme nach dieser Methodik zwangsweise heraus, dass Frau Merkel „die Verbreiterin von 100 % der Fake News“ (in Deutschland) wäre, denn ihre Aussagen werden von unseren Medien ungeprüft zu fast 100 % publiziert.

Was fällt auf?

Genau nach dieser abstrusen Methodik sind auch alle „Konsensstudien“ zum Klimawandel ausgeführt:
[Link] EIKE 20.09.2020: Minister Altmaier zum Klimawandel: …
„Diese Erkenntnis ist gesichert, sie wird von der übergroßen Mehrheit von Wissenschaftlern und Verantwortlichen weltweit geteilt und kann mit rationalen Argumenten nicht bestritten werden“
Die „Konsensstudien“ sind demnach keine Ausrutscher, sondern diese Art der bewusst dem Ergebniswunsch angepassten Methodik ist inzwischen „Standard“.

Unsere unfehlbare Kanzlerin Merkel würde es demgegenüber richtig machen, trotz höherer Mortalität

Wenn Trump „niedergemacht“ wird, muss eine Medienperson natürlich den Gegenpol, unsere unfehlbare Kanzlerin, mit der Deutschland glücklicherweise gesegnet ist, hervorheben:
Leitkommentar der Zeitung: „ … während Frauen an der Macht wie Angela Merkel … viel erfolgreicher sind … “.

Auf einem Blog gibt es eine Gegenüberstellung der Corona-Maßnahmen von Trump und denen im deutschen Merkelland:
sciencefiles 3. Oktober 2020: Gottesurteil in den Tagesthemen – Gebührenprofiteurin verbreitet bizarren Naturkult

Hinweis: Die Covid Maßnahmen von Trump und Deutschland finden sich am Ende des Artikels.
Das Ergebnis beider Maßnahmen zeigt eine Grafik:

Bild 3 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 1. Oktober 2020).Quelle: Johns Hopkins University

Bild 3 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 1. Oktober 2020).Quelle: Johns Hopkins University

Sofern diese Grafik stimmt, ist Trump bezüglich der Covid-19-Bekämpfung erfolgreicher als unsere vom Redakteur so hochgelobte Kanzlerin, denn in seinem Land ist die Mortalität immerhin um ca. 12 % geringer und liegt immerhin knapp unter dem weltweiten Durchschnitt, während die von Deutschland darüber liegt

Diese Grafik zeigt exemplarisch das abgrundtiefe Niveau, auf dem das gängige Trump-Bashing ausgeführt wird.

Dazu eine ganz typische Sendung zum deutschen Corona-Desaster und Verhalten unserer Medien:
30. Januar 2020: Bayerischer Rundfunk kritisiert Corona-Paranoia – Video
BR-Moderator Quer: … Wer behauptet, das Coronavirus sei so gefährlich, dass Grenzen geschlossen, der Verkehr eingeschränkt und manche Berufe eingestellt werden müssen, sei ein rechter Verschwörungstheoretiker in Paranoiaproduktion mit Endzeitpsychose …

Dazu das aktuelle „Wissensniveau“ in unseren Fernsehanstalten:

Bild 4 Tweet

Quellen

[2] Studie: The Cornell Alliance for Science,Department of Global Development, Cornell University, Ithaca, NY, Cision GlobalI insights, Ann Arbor MI, Sarah Evanega et al.: Coronavirus misinformation: quantifying sources and themes in the COVID-19‘ infodemic

[3] DW 02.10.2020: DESINFORMATION Wie Donald Trump zum größten Antreiber von Corona-Fake-News wurde

[4] AFP 1. Oktober 2020: Studie: Trump größter Antreiber von Corona-Falschinformationen