Was wir früher Lügen nannten, nennt man nun Computersimulation Moral

… so ähnlich lautete ein Songtext der Sängerin Milva [10]. Damals war das Militär angesprochen. Heute lässt sich damit synonym ein Vorgehen von Kampftruppen gegen das sich ständig wandelnde Klima beschreiben.
Helmut Kuntz

Klimaforscher entsetzt: Venedig versinkt früher als erwartet im Meer

Nach den Fluten in Deutschland ließ die nächste Klima-Katastrophenmeldung nicht lange auf sich warten. Wie das romantische Ahrtal, wird auch Venedig in Fluten versinken …
MSN-Nachrichten: SAT.1, 07.09.2021

Bild 1 Meldung von SAT.1 (und ProSieben) zu Venedig.

Im Video wird davon gesprochen, was die Klimaforscher erwarten: Der Meeresspiegel soll bei Venedig „ … um mehr als einen Meter in den nächsten Jahrzehnten steigen … sei sogar ein Anstieg um 170 cm bis zum Jahr 2100 möglich …

Bild 2 Aussage im Video zu Venedig

Bild 3 Aussage im Video zu Venedig

Dabei hatte eine noch unveröffentlichte Studie der Beratungsgruppe der Vereinten Nationen für den Klimawandel im Juni dieses Jahres noch festgestellt, dass es bis zum Jahr 2100 „voraussichtlich“ 50 cm Anstieg werden (könnten).

Bild 4 Meldung von euronews. Link: Venedig

Die Studie(n)

In den Videos ist kein Hinweis auf die Studien zu finden, welche Venedig „früher als erwartet“ im Meer versinken lassen. Doch hat „Der Standard“ ebenfalls darüber berichtet. Und was für die ökogläubigen, deutschen Bürger unwichtig ist, ist für seine (kritischeren?) österreichischen Leser vermerkt: Um welche Studien es sich dabei handelt.

[1] DerStandard, 7. September 2021: WELTERBE IN GEFAHR Steigender Meeresspiegel: Venedig droht schon bald unterzugehen
In wenigen Jahrzehnten könnte das Weltkulturgut um über einen Meter unter Wasser stehen.
Bereits eine 2018 veröffentlichte Studie im Fachjournal „Nature Communications“ kam zu dem Schluss, dass die
Folgen des Klimawandels für Venedig und dutzende andere Weltkulturerbestätten eine große Bedrohung darstellen …

Zitiert wird dazu im Artikel des „Standard“ vom 7. September 2021 zuerst eine Studie [2], welche bereits im Oktober 2018 veröffentlicht wurde.
Dabei zeigt sich wieder der häufige und typische Fall, dass Medien durch Wiederholen (und so tun, als wäre es aktuell herausgegeben) den Klimaalarm neu schüren.

Genau diese Studie wurde damals vom Autor rezensiert:
[3] EIKE 31.10.2018: Zeugnisse vergangener Kulturen sind durch den Klimawandel in Gefahr. Die Bedrohung betrifft vor allem Weltkulturerbestätten im Mittelmeerraum Teil 2 (2)
[4] EIKE 30. Oktober 2018: Zeugnisse vergangener Kulturen sind durch den Klimawandel in Gefahr. Die Bedrohung betrifft vor allem Weltkulturerbestätten im Mittelmeerraum Teil 1(2)

Das Ergebnis war eindeutig:
[3] [4] … Die aktuell postulierte Gefährdung hat eine Wahrscheinlichkeit von 1 % und muss nicht vom Klimawandel kommen, da sie schon immer bestand … Alle Gefährdungsszenarien stammen ausschließlich aus Modellsimulationen Der Anstieg von Flut- und Erosionsrisiko von bis zu 50 Prozent … basiert auf einem im Mittelmeerraum angenommenen Meeresspiegelanstieg von durchschnittlich 1,46 Meter bis zum Jahr 2100. Dieser Anstieg könnte mit einer fünfprozentigen Wahrscheinlichkeit (95. Perzentil) unter einem hohen Klimawandelszenario (RCP8.5) eintreten.

Grafisch sieht diese 5-prozentige Wahrscheinlichkeit unter rcp8.5 wie im Bild 5 aus. Dazu 5 % Wahrscheinlichkeit zu errechnen, schafft ein falsch geeignet parametrierter Computer mühelos. Sich zu trauen, so etwas zu publizieren, ist allerdings nur in den Klima-„Wissenschaften“ möglich.

Bild 5 Wirklicher und simulierter Pegelanstieg bei Venedig von 1885 – 2100 [3]

Nun hat eine wirklich neue Studie die schlimmen Vorhersagen der vorhergehenden Studie allerdings bestätigt:
[1] Der Standard: Im Extremfall bis zu 170 Zentimeter
… Eine aktuelle Studie lässt befürchten, dass die Uhr für Venedig schneller abgelaufen sein könnte, als man zunächst angenommen hatte. Ein Team von Klima- und Meeresforschern warnt nun im Fachmagazin „Natural Hazards and Earth System Sciences“ vor einem Anstieg des Meeresspiegels um mehr als einen Meter in den kommenden Jahrzehnten.
Sollte der Klimawandel nicht entscheidend gebremst werden, sei bis zum Jahr 2100 ein Anstieg um bis zu 120 Zentimeter möglich, hieß es. Als Extremszenario wurde sogar ein Anstieg um rund 170 Zentimeter berechnet.

Die Verlinkung im Artikel verweist dazu auf eine Seite der EGU (European Geosciences Union) „Venice flooding: understanding, prediction capabilities, and future projections“, welche auf eine Studie verweist: [5] Davide Zanchettin at al., 01 Sep 2021: Sea-level rise in Venice: historic and future trends
In dieser neuen Studie liest man dann (unter anderem):
(Übersetzt mit Deepl) [5] ... Die derzeit beste Schätzung der durchschnittlichen Rate des Meeresspiegelanstiegs während des Beobachtungszeitraums von 1872 bis 2019 auf der Grundlage von Tide-Gauge-Daten nach Beseitigung von Absenkungseffekten beträgt 1,23 ± 0,13 mm / Jahr. Eine höhere – aber unsicherere – Rate des Meeresspiegelanstiegs ist für die letzten Jahre zu beobachten. Zwischen 1993 und 2019 wird eine durchschnittliche Veränderung von etwa +2,76 ± 1,75 mm/Jahr aus den Gezeitenpegeldaten nach Entfernung der Absenkung geschätzt …
… liegt die wahrscheinliche Bandbreite des atmosphärisch korrigierten relativen Meeresspiegelanstiegs in Venedig bis 2100 zwischen 32 und 62 cm für das RCP2.6-Szenario bzw. zwischen 58 und 110 cm für das RCP8.5-Szenario.
Ein plausibles, aber unwahrscheinliches High-End-Szenario, das mit dem starken Abschmelzen des Eisschildes verbunden ist, liefert bis 2100 etwa 180 cm relativen Meeresspiegelanstieg in Venedig. Projektionen von vom Menschen verursachten vertikalen Landbewegungen sind derzeit nicht verfügbar, aber historische Beweise zeigen, dass sie das Potenzial haben, einen signifikanten Beitrag zum relativen Meeresspiegelanstieg in Venedig zu leisten und die Gefahr durch klimatisch induzierte Meeresspiegeländerungen zu verschärfen.

Zu dieser Aussage folgt dann Bild 5. Der Unterschied zwischen dem Pegel „Venedig“ und dem Pegel „Triest“ hat als Ursache, dass Venedig versinkt (was in den angezogenen PSML-Pegeln nicht korrigiert ist, so dass sich der Tidenpegel-Anstieg und die Senkungen addieren), während Triest auf Felsgrund steht und somit kaum isostatische Veränderungen erfährt. Für den Anstieg alleine des Meerespegels dieser Region ist der Tidenpegelverlauf von Triest deshalb der richtige(re).

Bild 5a [5] Pegelverläufe Venedig (ca. 2,4 mm/pa) und Triest (ca. 1,47 mm/pa)

Als normaler Bürger wird man mit dem Bild 5a allerdings verärgert. Wenn er in den PSMSL-Pegelviewer schaut, findet er (nicht nur) gerade zu dieser Gegend (Venedig) Pegeldaten, welche um das Jahr 2000 enden und bei weitem nicht so früh beginnen, wie in Bild 5 gezeigt. Zwar wird in der Studie dazu ein Link zu PSMSL angegeben, der allerdings wieder nur auf die Pegeldateien mit den eingeschränkten Datenlängen zeigt.
Anscheinend gibt es aber doch bis aktuell reichende Daten, sofern Figure 2 (Bild 5) aus der Studie stimmt, welche dem normalen Bürger aber vorenthalten werden.

Weiter geht es in der Studie (Übersetzt mit Deepl): [5] Die RSL-Zeitreihen von Triest, Marseille und Genua zeigen hundertjährige Trends zwischen 1,2 und 1,3 mm/Jahr … Die Schätzungen stimmen mit dem Trend des Meeresspiegelanstiegs von 1,2 ± 0,1 mm / Jahr aus dem 20. Jahrhundert überein, der von Marcos et al. (2016) für die gleichen Stationen gemeldet wurde.

Trotz dieser Pegelangaben werden in dieser Studie dann beliebig hohe Pegelanstiege simuliert:

Bild 6 [5] (Teilbild) Figure 7Observed and projected trends of Mediterranean sea-level variations. (c) Projected northern Adriatic RSL anomalies and associated uncertainties related to socio-economic scenarios (shading: 5th–95th percentile range; line: median). See main text for details on the calculation of uncertainties. Adapted from Thiéblemont et al. (2019). Bild vom Autor ergänzt

Pegeldaten

In [3] [4] wurden umfangreich Pegeldaten ausgewertet und dargestellt. Beim Klima kann sich in den vergangenen drei Jahren aber vielleicht Wichtiges ereignet haben, auch wenn es niemand – nicht einmal die alles permanent beobachtenden „Öffentlich-Rechtlichen“ mitbekommen haben. Deshalb eine aktualisierte Pegel-Nachschau.

Bild 7 PSMSL-Pegelverlauf Venedig 1960 – 2000 (da endet der aktuelle PSML-Datensatz). Pegelanstieg 0,43 mm/pa. Grafik vom Autor erstellt

Bild 8 PSMSL-Pegelverlauf bei Rijeka 1960 – 2020 (da endet der aktuelle PSML-Datensatz). Pegelanstieg 1,3 mm/pa. Grafik vom Autor erstellt

Um die Aussagen der Studie zu verdeutlichen, eine Grafik:

Bild 9 PSMSL-Pegelverlauf Venedig mit verschiedenen Projektionen bis zum Jahr 2100. Grafik vom Autor erstellt

Schon aktuell hat sich (nicht nur) das rcp8.5-Scenario als grottenfalsch erwiesen

Im folgenden Bild sieht man, wie stark die Szenarienprojektionen bereits aktuell vom wirklichen Tidenpegelverlauf abweichen. Beim Klimawandel stört es aber keinen „Wissenschaftler“, etwas zu publizieren, das bereits zum Publizierzeitpunkt als grottenfalsch erkennbar ist. Sie wissen, dass kein Freitagshüpfer, kein Klimacamper und auch kein Journalist es nachprüfen würde, alleine schon deshalb nicht, weil die „Wissenschaftlichkeit“ durch Angabe einer statistischen Wahrscheinlichkeit gesichert wurde …

Bild 10 [2] Fig. 2. Darin vom Autor der gemessene Tiden-Pegelanstieg von Rijeka zugefügt

Landsenkungen sind das viel größere Problem. Damit lässt sich aber kein Klimaalarm simulieren …

Ehrlicherweise geht diese Studie (ganz kurz) auf das ein, was in Venedig – wie in vielen „besonders schlimm“ vom Klimawandel „betroffenen“ Küstenstädten – das wirkliche Problem ist [6] [9]. Allerdings wird es auch gleich wieder ignoriert.
(Übersetzt mit Deepl) [5] Vertikale Landbewegungen
… es wird beobachtet, dass natürliche Prozesse, insbesondere Konsolidierung und anthropogene Aktivitäten weiterhin mit Raten von 10 bis −2 mm / Jahr beitragen. Daher können menschliche Aktivitäten erheblich zum Anstieg der RSL beitragen, aber detaillierte Szenarien sind derzeit nicht in der Literatur verfügbar, und dies ist ein allgemeines Problem.
All diese natürlichen und anthropogenen Beiträge haben das Potenzial, die RSL in Venedig zu erhöhen und die negativen Auswirkungen des lokalen Meeresspiegelanstiegs zu verschärfen, mit einem Beitrag in der Größenordnung von 10 cm pro Jahrzehnt auf subregionaler Ebene und möglicherweise viel größer lokal.

Man muss sich das immer wieder vor Augen führen: Der Tiden-Pegelanstieg in der nördlichen Adria liegt seit den 60er Jahren irgendwo zwischen 0,5 … 1,4 mm/pa (laut PSML bei Venedig nur ca. 0,5 mm/pa). Die Senkung der Lagune von Venedig soll jedoch zwischen 2 … 10 mm/pa betragen (wobei dieser Wert für Venedig aktuell etwas zu hoch gegriffen sein dürfte, wie es die PSMSL-Daten von Bild 7 zeigen).
Trotzdem wird alleine ein simulierter, zukünftig extrem zunehmender Pegelanstieg als Problemursache ausgemacht.

Ein Hintergrund könnte (wie bei den vielen anderen, von massiven Senkungen betroffenen Küstenstädten rund um die Welt) sein: Für eine selbst verursachte Senkung gibt es keine automatischen Hilfsgelder vom Ausland, für „Klimawandel-Folgen“ hat jedes Land bedingungslosen Anspruch darauf.

Unwahrscheinliche, aber plausible High-End-Veränderungen

Seit das PIK die These ausgegeben hat, dass auch unwahrscheinlichste Ereignisse, welche zwar physikalisch nicht möglich sind, von Computern aber als denkbar – wenn auch mit geringster Wahrscheinlichkeit – ausgegeben werden, publiziert werden sollen und das IPCC im neuen AR6 (inzwischen auch der DWD und unsere Behörden) deshalb vorwiegend mit dem real nicht möglichen rcp8.5-Szenario simulieren [7], weil sich nur damit ein „ausreichender“ Klimaalarm erzeugen lässt, wurden völlig neue „Klimawelten“ für die zunehmende Zahl gut bezahlter Simulationsforscher erschlossen.

Und seitdem ist kein Szenario mehr vor der Klima-Simulationswut sicher:
(Übersetzt mit Deepl) [5] … Bis zum Jahr 2100 wird erwartet, dass natürliche lokale Absenkungen zu einem RSL-Anstieg von etwa 10 cm im Vergleich zum späten 20. Jahrhundert führen werden. Der projizierte klimatisch induzierte Anstieg des venezianischen Meeresspiegels aus Schätzungen für die GMSL, korrigiert um die regionale Umverteilung von Massenbeitragskomponenten wie Gletschern, Eisschilden und Grundwasser, liegt im Bereich von 21 bis 52 cm (von 48 bis 100 cm) bis 2100 für das sozioökonomische Szenario RCP2.6 (RCP8.5). Das Schmelzen von Eisschilden liefert einen höchst unsicheren Beitrag. Ein RSL-Anstieg in Venedig von über 180 cm bis 2100 ist eine unwahrscheinliche, aber plausible High-End-Veränderung unter starker Schmelze Grönlands und der Antarktis.

Venedig sank auch früher schon schneller als erwartet

Die Zeiten, als noch einigermaßen ehrlich publiziert wurde, sind endgültig vorbei. Früher waren die Überschriften zwar fast wortgleich, doch kam danach wenigstens ohne Verschwurbelung die Erklärung:
[8] Die Presse, 22.03.2012: Venedig sinkt schneller als erwartet
Ein US-Forscher schlägt Alarm: Der Grund von Venedig soll um zwei Millimeter pro Jahr sinken.
Venedig versinkt immer schneller im Wasser. Der Forscher Yehuda Bock, Experte des Ozeanografischen Instituts der Universität von San Diego in Kalifornien, errechnete, dass der Grund von Venedig derzeit um zwei Millimeter pro Jahr sinkt. In den kommenden 20 Jahren soll der Meerespegel in Venedig um acht Zentimeter höher als jetzt sein, sollte die Lagunenstadt weiterhin mit diesem Tempo sinken.
Das Phänomen betreffe nicht nur die Stadt, sondern auch die Lagune mit ihren 120 Inseln, stellte Bock fest. Der nördliche Teil der Lagune sinke um rund zwei bis drei Millimeter im Jahr, der südliche Teil um etwa drei bis vier Millimeter …

Auch Studien wiesen darauf hin, nicht nur für Venedig, sondern weltweit:
[9] Syvitski, J. P. M. et al., 2009: Sinking deltas due to human activities

Bild 11 [9] Table 1. Representative deltas analyzed using MODIS imagery, SRTM data, and ancillary data (see Methodology section and 15 for details). Commentary in the storm surge column is as follows: LP= little potential; MP = moderate potential; SP = significant potential). Net Subsidence (or Relative Sea Level Rise) rates are time variable, and provided ranges cover different times and areas of a delta, where known; question marks are for unknown estimates.

Quellen

[1] Der Standard, 7. September 2021: WELTERBE IN GEFAHR Steigender Meeresspiegel: Venedig droht schon bald unterzugehen

[2] Lena Reimann at al., 16. October 2018: Mediterranean UNESCO World Heritage at risk from coastal flooding and erosion due to sea-level rise

[3] EIKE 31.10.2018: Zeugnisse vergangener Kulturen sind durch den Klimawandel in Gefahr. Die Bedrohung betrifft vor allem Weltkulturerbestätten im Mittelmeerraum Teil 2 (2)

[4] EIKE 30. Oktober 2018: Zeugnisse vergangener Kulturen sind durch den Klimawandel in Gefahr. Die Bedrohung betrifft vor allem Weltkulturerbestätten im Mittelmeerraum Teil 1(2)

[5] Davide Zanchettin at al., 01 Sep 2021: Sea-level rise in Venice: historic and future trends 

[6] EIKE 18.06.2019: Küstenstädte versinken, (auch) weil das Geld stattdessen zur CO2-Reduktion hinausgeworfen wird

[7] Tichys Einblick, F. Vahrenholt, 8. Sept. 2021: IPCC UND DEUTSCHE MEDIEN Die künstlich erzeugte Angst vor der Fünf-Grad-Erwärmung

[8] Die Presse, 22.03.2012: Venedig sinkt schneller als erwartet

[9] Syvitski, J. P. M. et al., 2009: Sinking deltas due to human activities

[10] Lied „Wenn der Wind sich dreht“, Textstelle „Was wir Kinder Lügen nannten. Nennt man nun Moral“

 




August in Deutschland: Zunehmender Wärmeinseleffekt, Austrocknung der Landschaft, mehr Sonnenschein und geänderte Großwetterlagen-Häufigkeiten

Eine Erwärmung durch Kohlendioxid ist hingegen nicht nachweisbar.

Josef Kowatsch

Mit 16,4 C war der August laut DWD im Mittel der fast 2000 Wetterstationen fast so kühl wie 2014 – etwa 1,6 K unter dem Schnitt der Trendlinie seit 1990.

Grafik 1: Nur geringer (nicht signifikanter) Temperaturanstieg im August seit 1990 in Deutschland.

Klima wandelt sich immer. Die allgemein leichte Klimaerwärmung seit 1990 in Deutschland hat menschengemachte und natürliche Gründe. Der menschengemachte Anteil ist zunehmend. Gründe des anthropogenen Anteiles sind die voranschreitende Zerstörung der Natur und die Austrocknung der Landschaft durch Überbauung und Trockenlegung. Selbst die freie Fläche wird seit Jahrzehnten großflächig trockengelegt.

Das nennt die Klimawissenschaft die Zunahme der Wärmeinseleffekte, und sie führt zu einer weiteren Erwärmung vor allem in den Sommermonaten, im Winter durch die Heizungen. Der Einfluss der Sonne ist jedoch stärker, weil auch die trockengelegte freie Fläche mitheizt. Täglich werden in Deutschland etwa 50 Hektar einst freie Fläche überbaut. Das bringt die Erwärmung, was wir im Folgenden anhand von Beispielen zeigen werden.

Typische unterschiedliche Temperatur-Entwicklung verschiedener DWD-Wetterstationen

Das Google Bild der Wetterstation Hof (Land) stammt vom 22.Sept. 2019, am linken Bildrand ist die Wetterstation in einer ausgetrockneten Wiese, eine Folge der seit 20 Jahren anhaltenden Flächenversiegelung im Gewerbegebiet. Nur 30m entfernt, die seit 9 Jahren fertige vierspurige B15 mit stark zunehmender Verkehrsbelastung, wenn diese auf der Momentaufnahme gerade nicht erkennbar ist. (Straßenbreite bei der Wetterstation 18m). Die nur 90 km entfernte Wetterstation Amtsberg in Sachsen steht auch außerhalb der Stadt, neben einer Gärtnerei an einem leichten Südhang. Die Aufnahme ist vom Sept. 2002, erkennbar an der leichten Gelbfärbung einzelner Laubbäume, aber alles ist grün, die Böden sind nicht ausgetrocknet. Der Hochsommermonat August entwickelt sich nach der Wende vollkommen unterschiedlich in den beiden Gebieten.

Foto links: Die einst ländliche Wetterstation Hof steht in der Mitte des linken Bildrandes. Die Wetterstation Amtsberg beim roten Punkt in einer ländlich intakt gebliebenen Landschaft.

Eine weitere Versteppung der Landschaft um Hof im Sommer ist vorhersehbar, derartige Entwicklungen haben wir hier beschrieben.

Nach Angabe des Wetteramtsleiters Amtsberg hat sich um seine Siedlung herum wenig verändert seit 1982, dem Beginn seiner Wetteraufzeichnungen am selben Standort. Eine auch dort neu erbaute Bundesstraße führt in beträchtlicher Entfernung an seiner Wetterstation vorbei und nicht vierspurig in 20m Entfernung wie in Hof. Die Industrialisierung hat nach der Wende Hof voll getroffen, an Amtsberg gingen die „blühenden Landschaften“ vorbei.

Einfluss der Landschaftsveränderungen auf die Temperaturentwicklung des Hochsommermonates August.

Grafik.2a: unterschiedliche Augusttemperaturentwicklung in Hof und Amtsberg. Die Station Hof liegt 150 m höher, war vor der Bebauung kälter und hat in den letzten 3 Jahren Amtsberg überholt.

Rosenheim und Holzkirchen: Ein weiteres Gegensatzpaar unterschiedlicher Standortbedingungen wären Rosenheim und Holzkirchen in Oberbayern. Die Wetterstation Rosenheim befindet sich nördlich der Stadt in den Innwiesen, während die Wetterstation im nicht weit entfernten Holzkirchen mitten im Wohnort steht. Allerdings weitet sich der einstmals kleine südliche Vor-Ort von München stark aus. Ein typisch stark wachsender Vorort im Speckgürtel der Landeshauptstadt. Die Augusttemperaturen reagieren prompt und wie erwartet auf die menschenverursachten Flächenversiegelungen und Trockenlegungen in der Stationsumgebung von Holzkirchen.

Grafik 3: Unterschiedliche August-Temperaturentwicklung in Holzkirchen und im benachbarten Rosenheim. Beide DWD-Wetterstationen sind nur 32 km voneinander entfernt.

Wurde der August südlich von München nun wärmer oder kälter? Antwort: Beide DWD-Wetterstationen messen richtig. Inmitten von Holzkirchen wurde es wärmer und außerhalb von Rosenheim in den Innwiesen wurde es nicht wärmer.

Anmerkung zu Rosenheim: Auch diese Stadt wächst und die Einwohnerzahl nimmt zu, noch aber scheint diese zunehmende Stadtwärme noch nicht voll auf die Wetterstation in den Innwiesen übergegriffen zu haben.

Erkenntnis: Ohne die menschenerzeugten, sich vergrößernden Wärmeinseln zeigt die Wetterstation in Amtsberg keinerlei Augusterwärmung seit der Einheit. Dasselbe gilt für die anderen beiden Beispiele. Die Steigung der Trendlinien von Hof und ähnlicher Bebauungsorte liegen deutlich über dem Schnitt der fast 2000 DWD-Stationen.

Ein anderes Beispiel für WI-Effekte findet sich in Niedersachsen, das ländliche Alfhausen zeigt eine ganz andere Augustentwicklung als die Wetterstation am Flughafen Osnabrück/Münster.

Grafik 4: Das sehr ländliche Alfhausen nördlich von Osnabrück erwärmte sich im August überhaupt nicht im Gegensatz zu Osnabrück/Münster. Beide Stationen sind nur etwa 45 Km voneinander entfernt und weisen eine ähnliche Höhenlage auf.

Ergebnisse: Die anhaltende Bebauung und Trockenlegung und Flächenversiegelung in den wachsenden Wärmeinseln führte zur Augusterwärmung, verursacht durch die Addition der jährlich zunehmenden Wärmeinseleffekte. Und CO2? An allen Orten der Erde ist die CO2-Konzentration der Luft seit 1990 um etwa 65 ppm gestiegen. Das zeigt die nächste Grafik, sie gilt weltweit.

Grafik 5: Kontinuierlicher Anstieg der CO2-Konzentrationen auf momentan knapp unter 420 ppm-Anteile in der Luft. Auch der Corona lock-Down und der weltweit verminderte anthropogene Ausstoß machte sich nicht bemerkbar. Demnach scheint ein Zurückfahren der menschengemachten Einträge in die Luft wenig an der Konzentrationszunahme zu ändern. Zur Maßeinheit 400 ppm=400 parts per million. Das wäre eine Konzentration von 0,04%.

Ergebnis: Ob es bei einer Wetterstation wärmer oder kälter wird, hat mit CO2 gar nichts zu tun. Der DWD braucht seine Wetterstationen nur alle in die freie Fläche zu setzen und schon ist die registrierte furchtbare Klimaerwärmung vorbei.

B-Teil: von Stefan Kämpfe

Natürliche Ursachen der Augusttemperaturen und des Klimawandels

Diese sollen hier anhand zweier Grafiken gezeigt werden; es sind die zunehmende Besonnung und geänderte Großwetterlagen-Häufigkeiten.

Grafik 6: Seit 1951 gibt es ein DWD-Mittel der Sonnenscheindauer. Stolze 50% der Temperaturvariabilität des August lassen sich mit der Sonnenscheindauer erklären; das ist hoch signifikant. Auf ganz Deutschland bezogen war der bislang sonnigste August (2003) auch der wärmste. Auch der bislang zweitwärmste (2020) war überdurchschnittlich sonnig, wenngleich nicht so markant, wie 2003; er verdankt seine Hitze auch der intensiven Zufuhr von Subtropikluft (xS). Seit 1951 stieg die Sonnenscheindauer merklich. Im eher herbstlichen August 2021 stürzte die Sonnenscheindauer auf unter 160 Stunden ab – da konnte es nicht richtig warm und sommerlich werden.

Erst seit 1979 liegt beim DWD die Objektive Wetterlagen-Klassifikation für Deutschland vor. Seitdem nahm die Häufigkeit der kühlend wirkenden Lagen mit nördlichem Strömungsanteil im August merklich ab:

Grafik 7: Merkliche Häufigkeitsabnahme der Tage mit nördlichem Strömungsanteil im August. Das trug ebenfalls zur August-Erwärmung bei. Im August 2020 wurden gerade mal drei Tage mit Nordanteil klassifiziert – einer der niedrigsten Werte seit 1979, aber im zu kühlen August 2021 waren es mit 13 Tagen überdurchschnittlich viele.

Zusammenfassung:

1.) Die Augusttemperaturen variieren an allen Betrachtungsorten von Jahr zu Jahr. Die Gründe sind die unzähligen natürlichen und sich ständig ändernden Einflüsse auf das Wetter und das Klima.

2.) Daneben übt der Mensch einen konstanten zusätzlichen Einfluss durch die Schaffung immer neuer zusätzlicher Wärmeinseleffekte aus. Bei manchen Stationen mehr, bei anderen weniger.

3.) Wie die Grafiken zeigen, bewirkt eine CO2-Zunahme entweder gar nichts oder fast nichts.

4.) Eine merklich gestiegene Besonnung und weniger Nord-, dafür mehr Süd- und Hochdruckwetterlagen tragen ganz wesentlich zum Durchschnittstemperatur eines Monates bei. Es handelt sich um natürliche Einflussfaktoren auf das Wetter und Klima

Fazit: Es wird Zeit, dass endlich Umwelt- und Naturschutz in den Mittelpunkt des politischen Handelns gerückt werden, saubere Luft, genügend Trinkwasser zu verträgliche Preisen und gesunde Nahrungsmittel sind menschliche Grundrechte. Eine CO2-Klimaabgabe taugt zu gar nichts, auf alle Fälle nicht dem Klima. Es handelt sich um ein Geschäftsmodell. Neben den oben beschriebenen Gründen, weshalb CO2 nicht an der gemessenen Erwärmung schuld sein kann, sollen noch drei weitere Gründe genannt werden.

  1. Es gibt keinen Versuch, der die Klimasensitivität von CO2 auch nur annähernd bestimmen kann. Behauptet werden 1,5° bis 4°C Erwärmung. Jeder Versuch liefert Null.
  2. Es gibt auch keinerlei Anwendungsbeispiel, bei welchem wir Menschen uns den behaupteten CO2-Treibhauseffekt positiv zunutze machen könnten.
  3. Schon bei der Elite der deutschen Physiker wie Einstein, Heisenberg, Hahn, Planck spielte der CO2-Treibhauseffekt keine Rolle. Er existierte für sie schlichtweg nicht, obwohl die Hypothese dazu schon Jahrzehnte zuvor entwickelte wurde.

Eine positive Eigenschaft hat die CO2-Zunahme in der Atmosphäre. Es ist ein Düngemittel für alle Pflanzen, führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur.




Falscher und irreführender „Fakten-Check“ über Conolly et al. 2021

Andy May

Dr. Ronan Connolly und seine Mitautoren reagieren auf offensichtlich falsche Behauptungen in einem vermeintlichen „Faktencheck“ über ihre jüngste Studie zu den möglichen Auswirkungen der Sonnenvariabilität auf das Klima. Wir applaudieren Dr. Ronan Connolly, Dr. Willie Soon und Dr. Michael Connolly dafür, dass sie diesen betrügerischen Faktencheck schnell und öffentlich anprangern. Fehlinformationen und als Faktencheck getarnte Meinungsartikel sind allzu häufig, und wenn sie in den linken sozialen Medien Unterstützung finden, wird die Situation nur noch schlimmer.

Ihre Antort lautet:

Sehr geehrte Herren Doktoren Vincent und Forrester,

Wir schreiben Ihnen diesen offenen Brief, weil wir kürzlich erfahren haben, dass Ihre Website Climate Feedback einen Artikel veröffentlicht hat, in dem mehrere falsche oder irreführende Behauptungen über einen Zeitungsartikel der Epoch Times (von Alex Newman) aufgestellt wurden, in dem über eine neue, von uns mitverfasste Studie berichtet wurde. Der „Faktencheck“/„Feedback“ auf Ihrer Website enthielt ebenfalls falsche oder irreführende Behauptungen über unsere Studie.

Das bedeutet, dass Ihre Website tatsächlich genau die Fehlinformationen verbreitet, die Sie angeblich bekämpfen wollen. Da Ihre Website derzeit zu den von Facebook zugelassenen „unabhängigen Faktenprüfern“ gehört, erhält jeder, der einen Link zu dem Epoch Times-Artikel geteilt hat oder versucht, ihn zu teilen, eine Warnung wie die folgende:

Mit anderen Worten, Ihr „Faktencheck“ fördert nicht nur Fehlinformationen, sondern Sie hindern die Öffentlichkeit effektiv daran, wichtige Informationen mit ihren Freunden und ihrer Familie zu teilen.

Mit diesem Schreiben bitten wir Sie, diesen fehlerhaften „Faktencheck“ sofort zu korrigieren und alle Gruppen, die Ihre Website als „unabhängigen Faktenchecker“ genutzt haben (einschließlich Facebook), über die Fehler zu informieren.

Wir haben auch verschiedene Parteien mit CC und BCC angeschrieben, die entweder direkt von den Folgen dieses „Faktenchecks“ betroffen oder allgemeiner über die Willkür der „Faktenchecks besorgt sind, die von Websites wie der Ihren veröffentlicht werden, und über das Problem „Wer überprüft die Faktenprüfer?“

Wir glauben, dass die nachstehende Diskussion angesichts des jüngsten Trends der Medien, der sozialen Medien und der Internet-Suchmaschinen, „unabhängige Faktenprüfer“ wie Sie für die Herabstufung, Unterdrückung oder sogar Löschung von Inhalten zu nutzen, für alle von Bedeutung ist. Deshalb haben wir uns entschlossen, dies als offenen Brief zu veröffentlichen. Wir ermutigen die Menschen, unseren Brief und unseren begleitenden „Faktencheck“ mit der Öffentlichkeit zu teilen – allerdings bitten wir darum, die E-Mail-Adressen zunächst zu schwärzen.

Es handelt sich um diesen Artikel, der von Dr. Lambert Baraut-Guinet herausgegeben wurde.

Dr. Baraut-Guinet behauptet, einen Zeitungsartikel von Alex Newman in der Epoch Times „überprüft“ zu haben, in dem die Ergebnisse unseres jüngsten wissenschaftlichen Berichts mit den Ergebnissen des sechsten Sachstandsberichts (AR6, Link hier) der Arbeitsgruppe 1 des Zwischenstaatlichen Ausschusses der Vereinten Nationen für Klimaänderungen (IPCC) verglichen wurden.

Baraut-Guinet behauptet, dass Newman in seiner Berichterstattung falsche Behauptungen aufgestellt hat, die „unrichtig“ und „irreführend“ waren. In ähnlicher Weise behauptet er, dass mehrere andere Medien, die Artikel veröffentlichten, die einige von Newmans Berichten wiederholten, „falsch“ und „irreführend“ waren. Baraut-Guinet behauptet auch, dass unser von Experten begutachtetes Papier „falsche“ und „irreführende“ Behauptungen aufstellt.

Hintergrund von Newmans Artikel:

Unsere Studie, über die Newman berichtete, ist ein detaillierter wissenschaftlicher Bericht über die komplexen Herausforderungen bei der Feststellung, welche Rolle die Sonnenaktivität bei den Temperaturtrends in der nördlichen Hemisphäre seit dem 19. Jahrhundert oder noch früher spielt. Sie wurde von 23 Experten auf dem Gebiet der Sonnenphysik und der Klimawissenschaften aus 14 verschiedenen Ländern mitverfasst und in der von Fachleuten begutachteten Zeitschrift Research in Astronomy and Astrophysics (RAA) veröffentlicht. Wenn Sie keine Zeit haben, den ganzen Artikel zu lesen, hier eine kurze Zusammenfassung der Pressemitteilung: Link hier

Der Titel unseres Artikels lautet [übersetzt]: „Wie stark hat die Sonne die Temperaturtrends auf der nördlichen Hemisphäre beeinflusst? Eine anhaltende Debatte“ und wurde Anfang August online veröffentlicht. Zufälligerweise wurde ein paar Tage später der IPCC AR6 der UN veröffentlicht. Während der IPCC AR6 zu dem Schluss gekommen war, dass der jüngste Klimawandel „eindeutig“ vom Menschen verursacht wurde, waren unsere Ergebnisse viel vorsichtiger und zurückhaltender, z. B. in der Zusammenfassung unseres RAA-Papiers:

Für alle fünf Temperaturreihen der nördlichen Hemisphäre deuten unterschiedliche TSI-Schätzungen darauf hin, dass die Sonne in den letzten Jahrzehnten keine Rolle gespielt hat (was bedeutet, dass die jüngste globale Erwärmung größtenteils vom Menschen verursacht wurde) oder dass der größte Teil der jüngsten globalen Erwärmung auf Veränderungen der Sonnenaktivität zurückzuführen ist (was bedeutet, dass die jüngste globale Erwärmung größtenteils natürlich ist). Es hat den Anschein, dass frühere Studien (einschließlich der jüngsten IPCC-Berichte), die vorschnell zum ersteren Schluss kamen, dies getan haben, weil sie nicht alle relevanten Schätzungen der TSI angemessen berücksichtigt und/oder die Unsicherheiten, die noch immer mit den Schätzungen der Temperaturentwicklung auf der nördlichen Hemisphäre verbunden sind, nicht zufriedenstellend behandelt haben. Daher werden mehrere Empfehlungen gegeben, wie die wissenschaftliche Gemeinschaft diese Fragen zufriedenstellender lösen kann.

Das heißt, dass der IPCC eine bemerkenswert zuversichtliche Behauptung über die „Zurechnung“ des jüngsten Klimawandels aufstellte, während wir ausdrücklich davor warnten, dass es noch zu früh sei, solche Schlussfolgerungen zu ziehen. Unsere Analyse ergab eine alarmierend große Bandbreite an plausiblen Schätzungen für einen solaren Beitrag (in dem Papier selbst führen wir aus, dass die plausiblen Schätzungen für den solaren Beitrag eine Bandbreite zwischen 0 % und 100 % der langfristigen Erwärmung seit Mitte des 19. Jahrhunderts zeigen.)

Newman war offensichtlich von dem Kontrast zwischen den beiden Studien fasziniert, die zufällig beide etwa zur gleichen Zeit veröffentlicht wurden. Er befragte mehrere von uns, um mehr über unsere Ergebnisse zu erfahren. Er wandte sich auch an das IPCC, um eine Antwort zu erhalten, sowie an andere Wissenschaftler, die mit unserer Analyse nicht übereinstimmen, aber auch an einige, die ihr zustimmen könnten. Wenn Sie seinen Artikel lesen, wird deutlich, wie sehr er sich bemüht hat, die verschiedenen Perspektiven sorgfältig und offen darzustellen.

Vergleicht man Newmans journalistischen Ansatz der „ausgewogenen Berichterstattung“ mit dem Rahmen, den Sie bei Science Feedback für eine informative Berichterstattung vorgeben (Link hier), so wird deutlich, dass Newman sehr darauf bedacht war, alle Aspekte der Fehlinformation zu vermeiden, die Sie als problematisch bezeichnen. Im Gegensatz dazu ist Baraut-Guinets „Faktencheck“ von Newmans Artikel mit fast allen Merkmalen von Fehlinformationen übersät, vor denen Ihr Rahmenwerk warnt, wie wir in dem beigefügten „Faktencheck-Faktencheck“ detailliert darlegen werden.

Doch ironischerweise wird Baraut-Gulinets „Faktencheck“ derzeit von Facebook (und wahrscheinlich anderen Plattformen) als Rechtfertigung für die Zensur von Newmans Artikel verwendet.

Auf der About“-Seite Ihrer Website heißt es: „Unsere erste Aufgabe ist es, ein Internet zu schaffen, in dem die Nutzer Zugang zu wissenschaftlich fundierten und vertrauenswürdigen Informationen haben. Außerdem geben wir Redakteuren und Journalisten Rückmeldung über die Glaubwürdigkeit der von ihnen veröffentlichten Informationen.“ Wir hoffen daher, dass Sie zumindest einen Teil unserer Besorgnis darüber teilen, dass dieser Artikel von Baraut-Guinet auf Ihrer Website nun Fehlinformationen verbreitet – und damit Redakteure, Journalisten und auch mehrere Ihrer Partner und Geldgeber, die Sie auf Ihrer Website aufführen, wie z. B. das „Third Party Fact Checking Program“ von Facebook in die Irre führt.

Wir hoffen, dass Sie Baraut-Guinet nach Durchsicht der Informationen in dieser E-Mail dazu veranlassen werden, seine fehlerhafte Analyse zu korrigieren, sein fehlerhaftes Urteil von „Falsch“ und „Irreführend“ in „Richtig“ und „Genau“ zu ändern und auch die verschiedenen Gruppen (einschließlich des Faktenüberprüfungsprogramms von Facebook) zu kontaktieren, die fälschlicherweise seine fehlerhafte Analyse verwendet haben, um sie zu warnen, dass Ihre Website einen fehlerhaften „Faktencheck“ veröffentlicht hat.

Unser Verfahren ist anders als das des IPCC

In unserem „Faktencheck-Faktencheck“ erklären wir, dass wir bei der Überprüfung der wissenschaftlichen Literatur in unserem RAA-Papier einen grundlegend anderen Ansatz verfolgten als das IPCC. Wir erklären auch, dass unsere Ziele grundlegend anders waren.

Das IPCC erklärt auf seiner Website, dass er vom Umweltprogramm der Vereinten Nationen (UNEP) in Zusammenarbeit mit der Weltorganisation für Meteorologie (WMO) mit dem vorrangigen Ziel gegründet wurde, „wissenschaftliche Informationen bereitzustellen, die [Regierungen] zur Entwicklung von Klimapolitiken nutzen können“ (https://www.ipcc.ch/about/, Zugriff am 5. September 2021). Wie wir im Faktencheck erklären, sind die spezifischen klimapolitischen Maßnahmen, an denen der IPCC interessiert ist, solche, die dem UNEP dabei helfen, internationale Vereinbarungen zur Reduzierung der Treibhausgasemissionen zu treffen.

Andererseits bestand unser Hauptziel darin, „dem Rest der wissenschaftlichen Gemeinschaft zu vermitteln, dass es mehrere ungelöste Probleme gibt, und die Punkte zu ermitteln, in denen allgemeine Übereinstimmung besteht“.

Das heißt, die wissenschaftlichen Bewertungen des IPCC werden durchgeführt, um die Regierungen bei der Umsetzung der politischen Ziele der UNO zu unterstützen, während unsere wissenschaftlichen Bewertungen durchgeführt werden, um der wissenschaftlichen Gemeinschaft (der wir alle 23 angehören) zu helfen, unser kollektives Verständnis der Ursachen des Klimawandels zu verbessern.

Also, unterschiedliche Ziele. Aber wir haben auch unterschiedliche Verfahren angewandt.

Der Ansatz des IPCC ist ein „konsensorientierter“ Ansatz, bei dem versucht wird, einen „wissenschaftlichen Konsens“ zu jedem der Hauptthemen zu finden. Dieser Ansatz funktioniert sehr gut, wenn es tatsächlich eine allgemeine wissenschaftliche Übereinstimmung in diesem Punkt gibt. Er ist jedoch immer dann problematisch, wenn es zu einem bestimmten Thema wissenschaftliche Meinungsverschiedenheiten gibt. Und ironischerweise findet die meiste wissenschaftliche Forschung dann statt, wenn in der Wissenschaft Uneinigkeit herrscht. Daher ist dies ein überraschend häufiges Vorkommnis. Der allgemeine Ansatz des IPCC im Umgang mit wissenschaftlichen Meinungsverschiedenheiten scheint darin zu bestehen, mit Hilfe eines „Expertenurteils“ die „wahrscheinlichste“ Sichtweise des Themas zu ermitteln (idealerweise eine, die den Zielen des UNEP am besten entspricht) und dann mit Hilfe eines „Expertenurteils“ die Studien zu verwerfen, die von dieser Sichtweise abweichen.

Mehrere Forscher haben den IPCC für diesen „konsensorientierten“ Ansatz gelobt, da er es dem IPCC ihrer Meinung nach ermöglicht, „mit einer Stimme für die Klimawissenschaft zu sprechen“ (siehe z. B. Beck et al. 2014; Hoppe & Rödder 2019). Dies ist für die Ziele des UNEP sehr hilfreich, da es den Regierungen ermöglicht, sich auf ihre Verhandlungen zu konzentrieren, ohne durch wissenschaftliche Meinungsverschiedenheiten innerhalb der wissenschaftlichen Gemeinschaft abgelenkt zu werden. Wir sind jedoch der Meinung, dass es leider den wissenschaftlichen Fortschritt und den Prozess der wissenschaftlichen Untersuchung behindert.

Aus diesem Grund haben wir den „konsensorientierten“ Ansatz des IPCC ausdrücklich vermieden und uns stattdessen dafür entschieden, „…hervorzuheben, wo es sowohl abweichende wissenschaftliche Meinungen als auch wissenschaftliche Übereinstimmung gibt“. Wie im 17. Jahrhundert festgestellt wurde:

Wenn wir mit Gewissheiten beginnen, werden wir in Zweifeln enden; wenn wir aber mit Zweifeln beginnen und in ihnen geduldig sind, werden wir in Gewissheiten enden.“ Francis Bacon.
Das sind unterschiedliche Ziele und unterschiedliche Methoden. So ist es letztlich nicht verwunderlich, dass wir in einigen wichtigen wissenschaftlichen Fragen zu unterschiedlichen Ergebnissen gekommen sind.

Wenn verschiedene Wissenschaftler aufgrund unterschiedlicher wissenschaftlicher Ansätze zu unterschiedlichen Schlussfolgerungen kommen, ist es sehr schwierig zu entscheiden, welche davon “ faktisch“ sind und welche nicht. Wir sind uns darüber im Klaren, dass dies für einen „unabhängigen Faktenprüfer“ wie Ihre Organisation zu Problemen führen kann, wenn sie gebeten wird, zu einer wissenschaftlichen Unstimmigkeit Stellung zu nehmen. Doch wie wir später noch erörtern werden, sollten Sie dies vielleicht gar nicht versuchen.

Die Wissenschaft gedeiht am besten, wenn es Wissenschaftlern erlaubt ist, unterschiedlicher Meinung zu sein. Anstatt zu versuchen, eine Seite einer gegebenen wissenschaftlichen Meinungsverschiedenheit als „falsch“ abzutun und die andere Seite als „richtig“ zu fördern, sollten wir vielleicht die Tatsache begrüßen, dass Wissenschaftler immer noch „Wissenschaft betreiben“. (Ed: Wissenschaft ist kein Konsens, Wissenschaft ist der Prozess, der verwendet wird, um einen Konsens zu widerlegen.]

Details zu unserem „Faktencheck-Faktencheck“

Empfehlung 1: Wir empfehlen Ihnen, den bestehenden „Faktencheck“/„Feedback“ zum Artikel von Alex Newman zu korrigieren. Derzeit wird auf Ihrer Website behauptet, seine Berichterstattung sei „falsch“ und „irreführend“. Dies sollte umgehend in „Richtig“ und „Genau“ geändert werden.

Empfehlung 2: Die Gruppen, die Climate Feedback als „Faktenprüfer“ nutzen, sollten kontaktiert werden, um sie über die fehlerhafte Analyse des Artikels auf Ihrer Website zu informieren.

Empfehlung 3: Alle Ihre Redakteure sollten daran erinnert werden, dass Ihr „Rahmenwerk für Überprüfungen auf der Ebene von Behauptungen“ vermutlich nicht als Inspiration dafür dienen sollte, was zu tun ist, sondern eher dazu, Fehlinformationen zu identifizieren.

Sobald dies geschehen ist, möchten wir Sie (und andere, die diesen offenen Brief lesen) ermutigen, darüber nachzudenken, ob die Idee der „Faktenüberprüfung“ in der Wissenschaftsberichterstattung wirklich so gut ist, wie sie auf den ersten Blick erscheinen mag.

Bemerkungen dazu, ob dieses Verfahren des „Fact-Checking“ funktioniert

Abschließend sind wir der Meinung, dass es für die Gesellschaft an der Zeit ist, darüber nachzudenken, ob dieser jüngste Trend zur „Faktenüberprüfung“ klug ist. Wir stellen fest, dass dieser Trend zu einem großen Teil auf Debatten über journalistische Ansätze bei der wissenschaftlichen Berichterstattung über den Klimawandel zurückgeht.

Insbesondere in den frühen 2000er Jahren waren einige Forscher, die glaubten, dass die IPCC-Berichte den endgültigen „wissenschaftlichen Konsens“ über den Klimawandel darstellten, frustriert darüber, dass Journalisten immer noch über die Ansichten von Wissenschaftlern berichteten, die mit den IPCC-Berichten nicht einverstanden waren. Insbesondere Boykoff & Boykoff (2004) argumentierten, dass die journalistische Norm der „ausgewogenen Berichterstattung“ zu einem „falschen Gleichgewicht“ führe, da sie impliziere, dass die Befürworter der IPCC-Berichte und die Kritiker eine 50:50-Aufteilung innerhalb der wissenschaftlichen Gemeinschaft darstellten (Abstract hier; pdf hier).

Diese Studie (und ganz allgemein das Streitgespräch) war sehr einflussreich und hat viele Journalisten davon überzeugt, dass sie die Pflicht haben, mit der vermeintlich „falschen Ausgewogenheit“ aufzuhören und stattdessen nur über die wissenschaftlichen Perspektiven zu berichten, die sie für „richtig“ halten. Das heißt, dass die Journalisten bei jeder wissenschaftlichen Meinungsverschiedenheit verpflichtet waren, herauszufinden, was der „wissenschaftliche Konsens“ war. Wenn eine wissenschaftliche Studie nicht mit diesem Konsens übereinstimmte, durfte über sie nicht berichtet werden.

Dieser alternative journalistische Ansatz wird von seinen Befürwortern oft als „zuverlässige Berichterstattung“ bezeichnet, obwohl Kritiker ihn als „erzählorientierten Journalismus“ (oder „ideologische Berichterstattung“, wenn der Kritiker mit der politischen Ideologie des Journalisten nicht einverstanden ist) bezeichnen könnten.

Ein großes Problem bei diesem Ansatz der „zuverlässigen Berichterstattung“ besteht darin, dass der Journalist als Schiedsrichter einer komplexen wissenschaftlichen Meinungsverschiedenheit fungieren muss. Bei wissenschaftlichen Meinungsverschiedenheiten ist dies eine sehr schwere Belastung für den Journalisten. Nichtsdestotrotz hat das Argument der „falschen Ausgewogenheit“ im Laufe der Jahre viele Journalisten davon überzeugt, den klassischen Ansatz der „ausgewogenen Berichterstattung“ aufzugeben.

Heutzutage sind Journalisten wie Alex Newman, die bei der Berichterstattung über wissenschaftliche Meinungsverschiedenheiten weiterhin den Ansatz der „ausgewogenen Berichterstattung“ verfolgen, sehr selten zu finden. Infolgedessen ist es in den letzten zehn Jahren immer schwieriger geworden, in den traditionellen Medien offene und ehrliche Diskussionen über diese wissenschaftlichen Themen zu finden.

Bis vor kurzem war es jedoch noch relativ einfach, solche Diskussionen anderswo zu finden, indem man soziale Medien und Internetsuchen nutzte. Daher werden soziale Medienplattformen und Internet-Suchmaschinen jetzt dafür kritisiert, dass sie es den Menschen immer noch ermöglichen, sich über laufende wissenschaftliche Meinungsverschiedenheiten zu informieren. Infolgedessen werden diese Plattformen zunehmend unter Druck gesetzt, „Fehlinformationen“ aktiv zu unterdrücken. Im Wesentlichen werden sie dazu gedrängt, die oben beschriebenen Unterdrückungs-Techniken zu übernehmen, die auch bei den Medien angewandt wurden.

Da die meisten Social-Media-Plattformen und Internet-Suchmaschinen ursprünglich dazu gedacht waren, den Nutzern die Möglichkeit zu geben, die von ihnen gewünschten Informationen zu teilen und zu suchen, stellt die Unterdrückung durch diese Plattformen eine besonders drakonische Form der Zensur dar.

Um zu versuchen, diese Zensur als „Verringerung der Verbreitung von ‚Fake News‘ und ‚Fehlinformationen’“ zu rechtfertigen, haben Plattformen wie Facebook, Twitter, Google/Youtube und andere begonnen, sich auf „unabhängige Faktenprüfer“ wie Climate Feedback zu verlassen. Wie wir jedoch in unserem „Faktencheck-Faktencheck“ gezeigt haben, ist der Versuch eines „Faktenchecks“ zu Themen, bei denen es anhaltende wissenschaftliche Meinungsverschiedenheiten gibt (wie es Dr. Baraut-Guinet hier getan hat), sehr riskant – und kann leicht zu Fehlinformationen führen.

Daher schlagen wir vor, dass es an der Zeit ist, die derzeitige Abhängigkeit von „Faktenprüfern“ zu überdenken, und dass die Journalisten auch den Ansatz der „zuverlässigen Berichterstattung“ überdenken sollten.

Persönlich sind wir der Meinung, dass eine Rückkehr zur Förderung einer „ausgewogenen Berichterstattung“ eine gute Option wäre. Wir stellen jedoch fest, dass der dänische Philosoph Prof. Mikkel Gerken in einer kürzlich erschienenen Studie mehrere Optionen vorstellt: Gerken (2020), „How to balance Balanced Reporting and Reliable Reporting“, Philosophy Studies, https://doi.org/10.1007/s11098-019-01362-5 [Zahlschranke. Wenn Sie jedoch keinen Zugang haben, aber die umstrittene „sci-hub“-Website nutzen möchten, können Sie wahrscheinlich eine Kopie auf diesem Weg finden].

Gerken beschreibt die oben genannten journalistischen Ansätze in Bezug auf die Wissenschaftsberichterstattung wie folgt:

1. Ausgewogene Berichterstattung. Wissenschaftsjournalisten sollten, wann immer dies möglich ist, über gegensätzliche Hypothesen so berichten, dass keine von ihnen bevorzugt wird.

2.Verlässliche Berichterstattung. Wissenschaftsjournalisten sollten, wann immer dies möglich ist, über die zuverlässigsten Hypothesen berichten und es vermeiden, über Hypothesen zu berichten, die nicht zuverlässig sind.

Er stimmt zu, dass es berechtigte Bedenken gegen beide Ansätze gibt. Der erste Ansatz kann möglicherweise zu einer „falschen Ausgewogenheit“ führen, während der zweite Ansatz zu einem erzählerischen Journalismus oder sogar zu Propaganda führen kann.

Daher schlägt er zwei mögliche Kompromisse vor:

3. Inklusive verlässliche Berichterstattung. Wissenschaftsjournalisten sollten, wann immer dies möglich ist, über Hypothesen in einer Weise berichten, die die am zuverlässigsten begründeten Hypothesen begünstigt, indem sie die Art und Stärke ihrer jeweiligen wissenschaftlichen Begründungen angeben.

4. Epistemisch ausgewogene Berichterstattung. Wissenschaftsjournalisten sollten, wann immer dies möglich ist, über gegensätzliche Hypothesen in einer Weise berichten, die die Art und Stärke ihrer jeweiligen wissenschaftlichen Rechtfertigung oder deren Fehlen widerspiegelt.

Er bevorzugt die 4. Option. Sowohl die 3. als auch die 4. Option schließt jedoch die Notwendigkeit der 2. Option aus, die Existenz echter wissenschaftlicher Meinungsverschiedenheiten zu unterdrücken, und vermeidet auch das Risiko der 1. Option, eine „falsche Ausgewogenheit“ zu erzeugen.

Der Ansatz von Alex Newman in seinem Epoch Times-Artikel kombiniert Elemente der Optionen 1, 3 und 4.

Wichtig ist, dass nur bei Option 2 die Notwendigkeit von „unabhängigen Faktenprüfern“ für die Wissenschafts-Berichterstattung gegeben ist. Bei den anderen Optionen werden die Leser auf die Existenz unterschiedlicher wissenschaftlicher Sichtweisen aufmerksam gemacht, und es bleibt ihnen überlassen, bei Interesse weitere Nachforschungen anzustellen.

Regards,

Dr Ronan Connolly, Dr. Willie Soon and Dr. Michael Connolly

Andy May lightly edited the letter for brevity.

The more detailed fact check of the fact check can be downloaded here.

Link: https://andymaypetrophysicist.com/2021/09/10/false-and-misleading-fact-check-about-connolly-et-al-2021/

Übersetzt von Christian Freuer für das EIKE

 




Windstärke Null: UK durch Kohle gerettet – zu gewaltigen Kosten

Global Warming Policy Forum

Großbritanniens fragiles Stromsystem ist eine nationale Blamage und eine Warnung an die Welt!

London, 7. September – Gestern war der Stromnetzbetreiber National Grid gezwungen, mehr als 20 Millionen Pfund zu zahlen, um das System „auszugleichen“ und Stromausfälle zu vermeiden – zehnmal mehr als normal.

Die gesamte britische Windkraftflotte war über weite Strecken des Tages völlig abwesend und erreichte erst spät am Tag, als die Krise vorüber war, mehr als ein paar Prozent ihrer theoretischen Leistung.

Infolgedessen mussten konventionelle gas- und kohlebefeuerte Kraftwerke angeworfen werden. Das brüchige britische Stromnetz wurde also effektiv durch fossile Brennstoffe gestützt.

Die Kosten für diese Maßnahmen waren sehr hoch: Für das Einschalten einiger Kraftwerke wurden bis zu 4.000 Pfund pro Megawattstunde gezahlt – ein in jeder Hinsicht außergewöhnlicher Preis.

Die Ausgleichskosten für die Vermeidung von Stromausfällen sind rapide gestiegen und werden sich in diesem Jahr voraussichtlich auf 1 bis 2 Milliarden Pfund belaufen, was die Verbraucher mit immer höheren Stromrechnungen belastet.

Für ein Land, das von sich behauptet, „Powering Past Coal“ [etwa: Energieerzeugung jenseits von Kohle]zu sein, ist dies eine Schande. Noch schlimmer ist, dass es im Vorfeld der COP26 jeden Anspruch der britischen Regierung auf eine Führungsrolle bei der Verwirklichung von „Net Zero“ Lügen straft und dem Premierminister keine plausible Plattform bietet, von der aus er andere Länder zur Dekarbonisierung auffordern kann.

Das alles sollte nicht überraschen. Stromsystemingenieure und andere Analysten wissen seit Jahrzehnten, dass Wind- und Solarenergie das britische Stromnetz zunehmend anfällig und extrem kostspielig machen würden. Ihre Warnungen wurden jedoch ignoriert, und die Regierung und die britische Öffentlichkeit ernten nun den Wirbelwind.

Für Journalisten:

Die GWPF hat zahlreiche Studien und Kommentare veröffentlicht, die auf die beginnende Anfälligkeit des Systems und die hohen Betriebskosten im britischen Stromnetz hinweisen. Hier eine Auswahl:

* Dr Capel Aris, A Cheaper Cleaner Electricity System (2019) 
* Dr Capel Aris and Colin Gibson, The Future of GB Electricity Supply Security: Cost and Emissions in a Net-zero System (2020)
* Dr John Constable, The Brink of Darkness: Britain’s Fragile Power Grid (2020)

Link: https://www.thegwpf.com/britain-saved-by-coal-at-huge-cost/

Übersetzt von Christian Freuer für das EIKE

 




Der Wärmeinseleffekt (WI) in Deutschland – viel mehr als nur inselhaft wirksam – Teil 3

WI-Effekte in unterschiedlichster Form betreffen heute weite Flächen des Landes und befeuern die Klimaerwärmung

Teil 3: Wie WI-Effekte unseren Alltag beeinflussen – und unsere Umwelt verändern

Stefan Kämpfe

Dieser abschließende, dritte Teil soll zeigen, wie stark WI-Effekte unseren Alltag beeinflussen, und wie sie die Flora und Fauna verändern.

Wärmeinseleffekte, besonders der UHI, bedeuten mehr Hitzestress und Dürren

Als Heiße Tage werden in der Klimatologie solche mit einem Tagesmaximum der Lufttemperatur von mindestens 30°C definiert. Diese treten tendenziell häufiger überall dort auf, wo WI-Effekte zunehmen; besonders in städtischen Wärmeinseln (UHI). Am Beispiel eines Vergleichs zwischen Berlin und dessen Umland lässt sich der überproportional wachsende Hitzestress in einer Großstadt verdeutlichen.

Abbildung 1: Im Vergleich der Klimatologischen Referenzperioden 1961 bis 1990 mit 1981 bis 2010 war die Zahl der Heißen Tage in Berlin (rot) stets höher als in dessen Umland (blau), aber sie nahm in Berlin auch viel deutlicher zu, als im weniger WI-belasteten Umland. Sehr große Höhenunterschiede, welche das Ergebnis verfälschen könnten, treten in Berlin/Brandenburg nicht auf.

Mehr Hitze erfordert mehr Stromverbrauch zur Klimatisierung der Arbeits- und Wohnräume – ein Teufelskreis, denn mehr Stromverbrauch bringt höhere Mietnebenkosten, und die Abwärme gelangt zusätzlich in die schon aufgeheizte Umwelt. Die erhöhte Wärmebelastung geht auch mit einer erhöhten Dürregefährdung WI-belasteter Gebiete einher; denn mehr Wärme bedeutet mehr Verdunstung. Typischerweise ist die Relative Luftfeuchtigkeit in WI-belasteten Gebieten geringer.

Abbildung 2: Linien gleicher Relativer Luftfeuchte (%) in der Stadt Karlsruhe an heiteren, windstillen Sommerabenden. Während in der Innenstadt nur 70 bis unter 60% gemessen werden, sind es in den ländlichen Außenbezirken über 90%. Bildquelle promet 4/79 meteorologische Fortbildung, Stadtklima.

Diese verringerte Relative Luftfeuchte in unseren Siedlungen hat für unseren Alltag positive und negative Effekte: Straßen und Wäsche trocknen schneller – leider auch die Böden in den Hausgärten und die Blumenkübel auf den Balkons und Terrassen.

Mehr Unwetter und Wetterextreme durch WI-Effekte?

Schon im Teil 2 hatten wir anhand der dortigen Abbildung 5b gesehen, wie eine Großstadt das Niederschlagsverhalten beeinflusst. Solche Untersuchungen gibt es auch aus den USA. Die Begünstigung konvektiver Niederschläge durch eine Wärmeinsel kann unter anderem zu einer erhöhten Zahl der Tage mit Hagel in deren Lee führen.

Abbildung 3: Anzahl der beobachteten Tage mit Hagel im Gebiet der Stadt St. Louis im Zeitraum 1949 bis 1965. Während im Luv (südwestlich der Stadt) in diesem Zeitraum nur an 4 bis 8 Tagen Hagel beobachtet wurde, waren es im Lee stellenweise 12 bis 14 Tage. Bildquelle promet 4/79 meteorologische Fortbildung, Stadtklima.

Neuerdings geraten auch die riesigen Wind- und Solarparks zunehmend unter Verdacht, Klimaextreme zu begünstigen. In Teil 1 wurde diese Problematik schon kurz angerissen. Gerade die Windparks entziehen der Atmosphäre Bewegungsenergie, was unter Umständen Flauten, Hitzewellen, Niederschlagsextreme und zirkulationsarme Großwetterlagen fördern kann. Näheres zu dieser Problematik hier. So könnte die in den letzten Jahrzehnten immer markanter in Erscheinung tretende Frühjahrsdürre, speziell im April, unter anderem eine Folge der zunehmenden Anzahl der Windenergieanlagen (WEA) sein.

Abbildung 4: Mit dem fortschreitenden Windenergie-Ausbau (pink) nahmen die April-Niederschläge im Deutschen Flächenmittel (violett) tendenziell ab. Diese Tatsache begründet zwar keine Kausalität, ist aber ein wichtiges Indiz für die negativen Auswirkungen der Windenergie.

Ein weiteres Indiz ist die merkliche Häufigkeitszunahme der so genannten Unbestimmten Wetterlagen (XX-Lagen). Diese sind zirkulationsarm, sie neigen zu Flauten; im Sommer zu Hitzewellen, im Winter mitunter zu Kältewellen; außerdem tendieren sie generell zu extremerem Niederschlagsverhalten (Starkregen oder anhaltende Dürre).

Abbildung 5: Signifikante, negative Korrelation zwischen der Häufigkeit der Unbestimmten (XX) Lagen und der Windstärke in Beaufort, ermittelt anhand der Daten von 25 Stationen in Norddeutschland im Jahresmittel. XX-Lagen sind tendenziell windschwächer. Zur besseren Darstellung in einer Grafik musste die Häufigkeit der XX-Lagen in Indexwerte umgerechnet werden; Näheres zu den XX-Lagen und der Objektiven Wetterlagen-Klassifikation des DWD hier

Wie beeinflussen WI-Effekte das Vegetationsverhalten?

Sowohl die Artenzusammensetzung als auch der zeitliche Ablauf der Vegetationsphasen (Phänologie) sind stark temperaturabhängig. Wegen der WI-bedingten Erwärmung finden sich in unseren Städten, an Verkehrsanlagen und anderen WI-belasteten Örtlichkeiten immer häufiger wärmetolerante oder wärmeliebende Arten, welche im unbeeinflussten Freiland selten auftreten oder meist völlig fehlen. Einige Bildbeispiele aus Weimar mögen das verdeutlichen:

Abbildung 6: Götterbaum-Sämling (Ailanthus altissima) an einem aufgegebenen Garagenkomplex in Weimar-Nord. Dieser ursprünglich in Mitteleuropa nur als Ziergehölz gepflanzte Baum stammt aus China und Nordvietnam, einer Region mit deutlich wärmeren Sommern, als in Mitteleuropa. Foto: Stefan Kämpfe

Abbildung 7: Die Quirlige oder Kletten-Borstenhirse (Setaria verticillata) wächst bevorzugt an Südseiten von Mauern und Häusern. Das Wildgras ist in Nordafrika, Vorderasien und Südeuropa sowie in den wärmsten Regionen Mitteleuropas heimisch. Foto: Stefan Kämpfe

Abbildung 8: Ursprünglich in Asien und dem Mittelmeergebiet heimisch, kommt das Kleine Liebesgras (Eragrostis minor) heute weltweit an wärmeren Stellen, bevorzugt auf Parkplätzen, Gehwegen, Straßen- und Bahnanlagen vor, hier im Betonpflaster eines Bahnsteiges am Weimarer Hauptbahnhof. Foto: Stefan Kämpfe

Abbildung 9: Ein dem Liebesgras grob ähnliches Verhalten zeigt der Portulak (Portulaca oleracea). Er entstammt vermutlich Südost- und Südeuropa. In Mitteleuropa gedeiht er nur in wärmeren, tieferen Lagen. Noch in den 1980er und den frühen 1990er Jahren eine Rarität, ist er heuer in Weimar häufig anzutreffen. Foto: Stefan Kämpfe

Abbildung 10: Das Verbreitungsgebiet des Schmalblättrigen Doppelsamens, auch Wilde Rauke oder Stinkrauke genannt (Diplotaxis tenuifolia) umfasst Süd-, Mittel- und Osteuropa, Westasien und den Kaukasusraum. Nach ELLENBERG ist er eine wärmeliebende Lichtpflanze. Im Weimarer Stadtgebiet wächst er oft in großen Beständen; im Umland fehlt er oder tritt nur sehr selten auf. Foto: Stefan Kämpfe

Weitere „Wärmezeiger“ sind das Schmalblättrige Greiskraut (Senecio inaequidens) aus Südafrika, die Mäuse-Gerste (Hordeum murinum) aus dem Mittelmeerraum und Kleinasien, die Blutrote Fingerhirse (Digitaria sanguinalis) aus dem südlichen Eurasien und Nordafrika sowie weitere Hirse-Arten oder der Sand-Wegerich (Plantago arenaria). Sieht man eine der genannten Arten häufiger, so deutet das stets nicht nur auf gestörte ökologische Bedingungen, sondern auch auf einen besonders im Sommer durch WI-Effekte sehr warmen Standort hin. Ein weiteres Indiz ist die tendenzielle Vegetationsverfrühung (Phänologische Phasen). Der Deutsche Wetterdienst (DWD) schreibt dazu: „Klimatische Unterschiede zwischen Stadt und Umland (‚Stadtklimaeffekt’), allem voran die Temperaturdifferenzen, verursachen Verschiebungen in den Vegetationszyklen der Pflanzen. In pflanzenphänologischen Untersuchungen spiegeln sich diese Temperaturverhältnisse wider. Bei den temperatursensitiven Frühlingsphasen sind Verfrühungen von 1,5 bis zu 12 d/K anzutreffen. Ein signifikanter Zusammenhang der phänologischen Phasen besteht auch zur Bebauungsdichte. Frühlings- und Sommerphasen treten in dicht bebauten Stadtgebieten im langjährigen Mittel um bis zu 7,5 Tagen früher ein. Der Eintritt von Herbstphasen wird durch Stadtklimaeinflüsse in vielen Fällen verzögert. In Einzelfällen ist jedoch auch ein vorzeitiges Eintreten der Laubverfärbung zu beobachten.“ Quelle: Promet meteorologische Fortbildung Jahrgang 33, Heft 1/2, 2007, Phänologie. In selbiger Quelle findet sich auch diese Tabelle zum Eintritt phänologischer Phasen:

Abbildung 11: Mittlere Eintrittstermine phänologischer Phasen (BB: Blühbeginn, BE: Blattentfaltung, LF: Laubverfärbung) in bayerischen Städten und deren ländlicher Umgebung im Mittel der Jahre 1951 bis 1980 sowie Verfrühung VS in Tagen (Mittelwert der Städte München, Nürnberg, Augsburg und Regensburg, nach RÖTZER 1996, Quelle: DWD).

Im Rahmen der Floristischen Kartierung lässt sich die Konzentration wärmeliebender oder wärmetoleranter Arten in bebauten Gebieten gut nachweisen.

Abbildung 12: Spontane (nachweislich nicht angepflanzte) Vorkommen des Götterbaumes (Ailanthus altissima) im Gebiet der Hansestadt Hamburg. Die Konzentration auf das Stadtzentrum ist eindrucksvoll erkennbar und ein wichtiges Indiz für den UHI-Effekt. Bildquelle (PDF)

WI-Effekte und die sich anpassende Tierwelt

Bestes Beispiel für die Anpassung eines ursprünglich scheuen Waldvogels an die Stadt ist die Amsel (Turdus merula); der einst scheue Waldvogel wanderte schon vor fast 200 Jahren zunehmend in unsere Siedlungen ein. Aber auch Elstern, Krähen und Nachtigallen kommen mittlerweile in unseren Städten bestens zurecht. Noch vor 25 bis 30 Jahren war der Eichelhäher (Garrulus glandarius) in der Stadt weitgehend unbekannt – doch das ändert sich momentan schnell. Immer mehr Vogelarten, aber auch Füchse, Wildschweine, Waschbären und andere Kleinsäuger, werden zu Stadtbewohnern, weil es hier nicht nur mehr Nahrung gibt (Fütterung oder Abfälle), sondern durch die höheren Temperaturen auch bessere Überlebenschancen in der kalten Jahreszeit. Es können mehr Nachkommen, oft in mehr Bruten als auf dem Land, aufgezogen werden; einstige Zugvögel werden in der wärmeren Stadt zu Standvögeln. Und selbst Exoten, wie etwa der Halsbandsittich (Psittacula krameri) aus Afrika und Südasien, leben heute verwildert in vielen deutschen Großstädten und werden mancherorts schon zur Plage. Aber wie sieht es mit dem angeblich so dramatischen Insektensterben aus? Die in unseren Städten und Siedlungen in Scharen zu beobachtenden Mauersegler und Schwalben leben ausschließlich von Insekten – es muss sie hier also reichlich geben. Und auch Wespen und Hornissen haben sich hervorragend an das wärmere Klima unserer Städte angepasst; die Honigbienen sowieso; Stadtimkerei liefert heute besten Honig. Erwärmung ist also mitnichten schlecht für Flora und Fauna. Im Zuge der möglicherweise jetzt beginnenden Abkühlungsphase könnten gerade die Wärmeinseln das Überleben vieler Arten sichern.