Wozu (gegen­teilige) Messwerte betrachten? Den Klima­wandel fühlt doch jeder

Bayern erGRÜNt

Mittlerweile rief die erste Bayerische Stadt (Erlangen) den Klimanotstand aus. Und auch der neue Ministerpräsident Söder hat – wohl durch Betrachten des Landtags-Wahlergebnisses – festgestellt, dass Bayern besonders (schlimm) vom Klimawandel getroffen sei. Anstatt sich besonnen zu informieren, dreht auch er nun ebenfalls durch – beziehungsweise wurde gleich populistisch wie sein Vorgänger – und fordert, die Kohlekraftwerke noch schneller als geplant vom Netz zu nehmen und durch teure, wie auch problematische Gaskraftwerke zu ersetzen [19]. Bleibt nur noch abzuwarten, wann auch ihn wie seinen Vorgänger, ebenfalls eine paulinische Erweckung überfällt und auch er die wegweisende, unfehlbare, große Führerfigur, Frau Merkel, bedingungslos anzuhimmeln beginnt und er ihr ebenfalls bescheinigt, sie wäre „einzigartig kompetent“ [22]. Einen „Kompetenzinhalt“ hat er schon übernommen: Bayern wird grüner (gemacht), als es die GRÜNEN fordern.

Da bei Problemen die Obrigkeit sich den Staat zuallererst vor Ansprüchen der Bürger schützt, wurde vorsichtshalber allerdings jegliche Unterstützung der Bürger für Klima-Schadensfälle gestrichen. Konsequenz: Da inzwischen alles nur noch die eine Ursache hat (die zum Himmel schreiende, falsche das gewüschte Ergebnis liefernde „Expertise“ eines Münchner Professors zur 5 m hohen Flutwelle in Simbach belegt es überdeutlich [20]), gibt es für Bürger vom Staat in solchen Fällen überhaupt keine mehr.

Der Bayerische Rundfunk hat sich des Themas seit Längerem angenommen und bringt regelmäßig Klimawandel-Propagandavideos [4] [5], um den Bürgern einzubläuen zu zeigen, wie wichtig und richtig das ist.

Reklamiert ein Bürger die „Reportagequalität“, behauptet gar, einiges wäre stark überzeichnet, würde ziemlich wahrscheinlich sogar nicht stimmen, weil recherchierbare Daten falsche Aussagen belegen, wird er belehrt, dass so etwas bei der überragenden Qualität der Öffentlichen gar nicht möglich ist und Kritik damit prinzipiell und ohne Nachprüfung unbegründet sei [3].

Nicht immer kommt es, wie bei den vom WDR/ARTE ganz offen als reine Klimawandel-Propaganda erstellten Reportagen so brachial herüber, obwohl auch der BR eine eigene Klima-Propagandasendereihe „fährt“, um die Bürger auf die richtige Doktrin einzustimmen:
BR Fernsehen, UNKRAUT 17.06.2019: Klimaschutz: Wann wacht die Politik auf?
Die Themen: Erderwärmung: Wie steht Bayern in Sachen Emissionen da? | Wald in Gefahr: Wie der Klimawandel unsere Bäume bedroht

In den meisten Fällen erfolgt es allerdings ganz subtil, dafür aber sicher nicht weniger wirkungsvoll. Deshalb die Gegendarstellung zu einem nicht schlimmen, aber eben typischem Beispiel.

Immer häufiger Extremniederschlag am Chiemsee

Im Chiemgau gibt es „seit ewigen Zeiten“ Überschwemmungen. Der BR berichtet darüber. Wo Überschwemmungen sind, kann der Klimawandel nicht weit sein. Denn wer sonst könnte solche verursachen? Nun, ganz so schlimm wird es nicht dargestellt. Überschwemmungen gab es – das wird zugestanden – auch früher schon. Aber: Es wird – wer hätte schon etwas anderes vermutet – immer schlimmer und schlimmer.

Bild 1 BR-Reportage zu Überschwemmungen im Chiemgau: BR Mediathek

In der Reportage interviewt der Sprecher einen dafür zuständigen „Staatsbediensteten“. Dieser ist aber penetrant nicht bereit, in die ihm wiederholt in den Mund gelegte Klimawandelhysterie einzustimmen.
Was macht man in einer solchen Reportage, wenn gerade das „Wichtigste“ noch fehlt? Man sucht so lange nach Personen, bis sich eine findet, die es besser – das heißt: richtig – weiß und vor der Kamera auch sagt. Solche, die die Natur täglich hautnah erleben, sind dafür prädestiniert, zum Beispiel aus der Landwirtschaft. Und ein solcher fährt im Video auch zufällig auf seinem Traktor vorbei und er weiß, was der „Staatsbedienstete“ sich weigert zu sagen:
Untermahlt von der bei solchen Sequenzen erforderlichen, düsteren und unheilschwangeren Musik kann er berichten:
Sprecher: … aber Landwirt … findet, dass sich etwas verändert hat.
Landwirt: … des is ja etz so, dass gerade die Starkregen wie mas die letzten Jahre etz ghabt hat, dass die scho extrem mehr wern … wie`s weiter wird, glaub i, woaß koaner ...

Diese Art der „Beweisführung“ durch Erleben, anstelle durch Daten, ist beim Klimawandel inzwischen so etwas wie ein Goldstandard Was der Landwirt fühlt, reicht dem BR

Nun anbei eine Wiederholung des immer gleichen Spiels: Was fühlt die selbsternannte Fachperson und berichtet der BR und was sagen dazu die (leicht recherchierbaren) Daten?
Wiederholung: Die befragte „Fachperson“ fühlt: … dass gerade die Starkregen in den letzten Jahren extrem mehr werden …

Was sagen Wetterdaten

Leider sind keine Daten von DWD-Wetterstation direkt am Chiemsee (mit abrufbaren Langzeitdaten) beim DWD frei zugänglich hinterlegt, aber darum herum finden sich welche.
Zuerst vom ebenfalls oft und schlimm von Überschwemmungen getroffenen Rosenheim, ganz in der Nähe:

Bild 2 Rosenheim Tagesniederschlag 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 3 Rosenheim 2-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 4 Rosenheim 3-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 5 Rosenheim 7-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Sichtungsergebnis der Stationsdaten
In keinem der drei Niederschlagssummen ist seit 1950 irgendwo eine Zunahme des Starkregens zu sehen; und schon gar nicht „in den letzten Jahren extrem mehr“. Seit der letzten, mittleren Niederschlagsspitze in 06.2013, also vor sechs Jahren hat der Extremniederschlag in allen Summen stark abgenommen.

Nun noch die vergleichende Auswertung vom Einzugsgebiet der Tiroler Ache (Haupt-Chiemseezufluss), bei Reit im Winkl.

Bild 6 Reit im Winkl Tagesniederschlag 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 7 Reit im Winkl 2-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 8 Reit im Winkl 7-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Reit im Winkl zeigt die gleichen Niederschlagsbilder wie Rosenheim. Auf keinen Fall eine Zunahme in den letzten Jahren, sondern ebenfalls eine stetige Abnahme.

Zur Abrundung nun noch Garmisch.

Bild 9 Garmisch Tagesniederschlag 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 10 Garmisch 2-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 11 Garmisch 7-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Garmisch hat einen leicht abweichenden Verlauf, zeigt aber auch auf keinen Fall die berichteten „in den letzten Jahren extrem mehr“ Niederschlag. Der Tagesniederschlag (Bild 9) zeigt nur zusätzlich (wieder) die extreme Niederschlagsvarianz und wie solche vollkommen ohne irgendeine Vorwarnung oder Trend „aus dem Nichts“ auftauchen.

Die Niederschlagsverläufe der Chiemsee-Umgebung in Richtung der Berge zeigen: Der Bauer liegt mit seiner Aussage im Video daneben. Gefühlt ist eben nicht auch gewusst. Man könnte fast vermuten, dass der „Staatsbedienstete“ die Messdaten kennt und deshalb im Video so vorsichtig agiert.

Und das gilt nicht nur für Oberbayern, sondern zieht sich durch ganz Deutschland [7] [8].
Aber man braucht kein Hellseher zu sein, um zu ahnen, welche Aussage beim fernsehenden Publikum haften bleiben wird. Dies dank einer BR-Redaktion, welche die Wahrheit gar nicht wissen will.

Was weiß die Bayerische Regierung

Deren zuständiges Ministerium recherchiert, monitort und controllt inzwischen selbstverständlich auch den Klimawandel. Und darüber werden viele Berichte geschrieben. Einen gibt es vom Bayerischen Landesamt für Umwelt mit dem Titel:
[2] Hochwasser im Spiegel der Zeit
Daraus einige Angaben und Daten.

Zuerst nicht von Oberbayern, sondern vom Main die Hochwasserabflussmengen. Was EIKE-Leser bereits wissen, nehmen – seit es dank dem sich von der schlimmen, kleinen Eiszeit wieder etwas erwärmendem Klima – (nicht nur) am Main, die Hochwasser stetig ab.

Bild 12 [2] Main bei Würzburg. Jahres-Höchstabflüsse 1826 – 2007. Trendlinie vom Autor zugefügt

Noch besser lässt es sich an den Pegelständen sehen: So wenig Hochwasser wie in den letzten Jahrzehnten war noch nie. Trotzdem wurde 2013 bei Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überschwemmungsgebiet zugewiesen hatte. Doch der Schuldige war damals laut einer Zeitung natürlich der Klimawandel.

Bild 13 Main Historische Pegelstände Würzburg. 2013 wurde das Afrikafestival „wegen des Klimawandels, der immer höhere Hochwasser zur Folge hat“ (Artikel in einer Lokalzeitung) überschwemmt. Grafik vom Autor anhand der Pegelangaben erstellt

Nun wieder näher Richtung Oberbayern, Abflussmengen der Donau. Diese zeigen extreme Spitzen, aber ebenfalls keine Zunahme. Und alles, was kürzlich war, war in der (kälteren) Vergangenheit ebenfalls schon.

Bild 14 [2] Donau unterhalb Passau. Jahres-Hochstabflüsse 1861 – 2006, gemessen am Pegel Achleiten.

Anbei auch überregionale Fluß-Pegelbilder, um zu zeigen, wie die Auswirkungen solcher Höchstabflüsse konkret aussehen, vor allem aber auch um zu zeigen, dass die hohen und höchsten Flutpegel vor allem in der vor-industriellen, kalten Vergangenheit auftraten:

Bild 15 Pegel Main Aschaffenburg. Quelle: Wasserwirtschaftsamt Aschaffenburg, Homepage

Was man an den Pegelbildern sofort sieht: schlimme Hochwasser waren gerade und vorwiegend in der angeblich „natürlichen“, freundlichen, herbeigesehnten, vorindustriell kalten Zeit“ regelmäßige und häufige Ereignisse.

Ergänzend dazu Listungen aus der Schrift des Bayerischen Landesamtes für Umwelt [2]:
Isar bei München:
Überliefert sind große Hochwasser mit starken Verwüstungen aus den Jahren:
1400, 1401 , 1404, 1418, 1462, 1463, 1477, 1485 und 1491, 1589, 1624, 1633. 1729 standen das ganze Lehel und die Au unter Wasser. 1739 wiederum, aber viel höher – bis Thalkirchen bildete die Isar einen See. Weitere Hochwasser gab es 1778, 1783, 1786 drei, 1795 und 1802. 1807 riss das Hochwasser ein Achtel Grund der Au fort. 1813 ertranken hundert Schaulustige, als das Hochwasser die Ludwigsbrücke zum Einstürzen brachte. Weitere Hochwasser waren 1865, 1873 – Einsturz der Max-Joseph-Brücke – und 1875.
1899 riss ein Jahrhunderthochwasser die Prinzregentenbrücke und die MaxJoseph-Brücke ein – nur sechs Jahre
nach ihrer Fertigstellung.
Im 20. Jahrhundert suchten München große Hochwasser
1924, 1930, 1940, 1954 und 1999 (Pfingsthochwasser) heim. Das Augusthochwasser 2005 ist mit den großen Hochwassern der vergangenen Jahrhunderte vergleichbar.

Berchtesgaden
Im Berchtesgadener Talkessel sind viele historische Hochwässer dokumentiert. Besonders große Hochwässer herrschten 1269, 1386, 1403, im Juli 1508 und Oktober 1567, 1569, 1572, 1598, 1618/19, 1622, 1649, 1661, 1734, 1736, 1747, 1759, 1764, 1786, 1787, 1807, 1830, 1864, 1876, 1897, 1899, 1918 und 1920
1931
wurde in Schellenberg eine Pegelanlage eingerichtet. Nach den Pegelaufzeichnungen sind die Hochwässer 1954 und 1959 eindeutig mit Hochwasserspitzen von 3,50 m bzw. 3,59 m nachgewiesen. 1965 ließ man den Pegel in Schellenberg wieder auf und nahm einen neuen Pegel in Berchtesgaden in Betrieb.
Markante Wasserstände zeigen sich hier
1977, 1995, 2002 und 2005. 2002 wurde der Höchstwert von 2,95 m erreicht.

Expertenwissen

Trotzdem – beziehungsweise nicht unerwartet – kommt das Bayerischen Landesamtes für Umwelt nach Analyse der Niederschläge seit 1950 in der Schrift zu dem Ergebnis, dass Niederschlags-Extremereignisse in Oberbayern durch den Klimawandel bedingt zunehmen würden, schreibt aber gleich dazu, dass beim Niederschlag eine kurzfristige Betrachtung gar nicht aussagefähig ist: [2] … Ein Blick in die Hochwasserchronik der Stadt Passau zeigt aber, dass das Wetter und die Abflussbildung als hoch komplexes System mit vielen sich gegenseitig beeinflussenden Faktoren noch nie zur statistischen Mittelwertbildung geneigt haben. Nach Jahrzehnten mit nur moderat erhöhten Sommerabflüssen folgten immer wieder im Abstand von nur wenigen Jahren mehrere große, Schaden bringende Hochwasser hintereinander …

Um die Konfusion noch deutlicher zu machen, zeigt eine Auswertung der Schrift: [13] Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete, des gleichen, Bayerischen Landesamtes für Umwelt, dass sich keine Signifikanz einer Zunahme zeigt, eher eine Abnahme [14]. Bestätigt wird dies durch eine Schrift des KLIWA-Projektes A 1.1.3 „Trenduntersuchungen extremer Niederschlagsereignisse in Baden-Württemberg und Bayern“ [19]:
… Im hydrologischen Winterhalbjahr zeigen die Starkniederschlagshöhen des Zeitraums 1931–2000 deutliche Zunahmen. Diese Zunahmen verstärken sich vereinzelt noch mit zunehmender Dauer (von 1 Tag bis 10 Tage) der Starkniederschläge. Regionale Schwerpunkte sind in Bayern die fränkischen Landesteile sowie Teile des Bayerischen Walds, in BadenWürttemberg der Schwarzwald sowie der Nordosten des Landes.
Im hydrologischen Sommerhalbjahr ist hingegen kein einheitlicher Trend bei den Starkniederschlägen festzustellen. Regionen mit einer Zunahme (z. B. Ostrand des Schwarzwaldes, Donautal, Teile Mittelfrankens) stehen große Gebiete mit einer Abnahme (z. B. Unterfranken, Südost-Bayern und Teile des Alpenvorlandes) bei insgesamt geringer Signifikanz gegenüber …

Dass das Überschwemmungsjahr 2013 ein Extrem war, zeigen die Bilder der Messstation von Reit im Winkl und das Bild der Niederschlagssummen vom 26.06.2013. Hier muss nochmals gesagt werden, dass der DWD für die Bürger nicht alle Daten zur Verfügung stellt. Viele der in der Schrift [15] gelisteten Messstation dieser Gegend finden sich im öffentlich zugänglichen DWD-Archiv nicht.

Bevor zur Betrachtung der Vergangenheit geschritten wird, anbei noch ein Bild, welches die Problematik von Niederschlags-Extremereignissen verdeutlicht: Sie sind sehr lokal begrenzt. Es hängt von der Lage weniger Messstationen ab, ob sie überhaupt erfasst und richtig gemessen werden, weshalb man es inzwischen mit Wetterradar macht.
Zwangsweise führt die Erfassung mit Wetterradar als Folge der höheren Abdeckung zu einer „schlimmen Erhöhung“ der Ereigniszahlen, also einem „unbestechlichen“ Beleg für den bereits wirkenden Klimawandel. Der DWD nutzt das auch entsprechend aus, und darf den Personal und Kontrollaufwand auszubauen.

Bild 24 [15] Lage der Starkniederschläge Ende Juli 2013

Unnatürlich“ ist unser Wetter nur, wenn man die kältere Vergangenheit weglässt

Wie gezeigt wurde, „erklärt“ das Bayerische Landesamt für Umwelt, die Hochwasser in Oberbayern würden zunehmen, obwohl alte – und vor allem auch historische Daten und Pegelmarkierungen – eindringlich darauf hinweisen, wie oft und schlimmer solche gerade in der kälteren Vergangenheit gewütet haben. Dem Amt reicht jedoch eine Zählung von Ereignissen seit etwa 1950 (ungefähre Verfügbarkeit brauchbarer Messdaten) aus. Ein Zeitraum, der für Niederschlag wenig Relevanz hat, wie man nicht nur anhand der vorherigen und in einem früheren Artikel gezeigten Niederschlagsmessreihen sofort sehen kann [17].

Auch die Aussagen in den Informationsschriften über Zeiten vor 1950 belegen es deutlich:
1845 und die Tauflut von 1882/83 bewirkten Überschwemmungen auf fast der gesamten Fläche Aus alten Schriften geht hervor, dass auch das Hochwasser vom 28. Dezember 1882 bis 3. Januar 1883 beinahe das ganze Einzugsgebiet der bayerischen Donau umfasste. Es wird von einem Katastrophenhochwasser gesprochen.

1924 waren lang anhaltende starke Regenfälle von rund 40 Stunden, die das südliche und Teile des nördlichen Einzugsgebietes der bayerischen Donau von West nach Ost durchzogen.
Besonders betroffen war der Chiemgau. Hier fielen in 30 Stunden 300 mm Regen.
In allen anderen Fällen traten und treten Hochwasserschwerpunkte auf, zum Beispiel in Donauwörth, Regensburg oder Passau. Die Donau bis oberhalb Passau ist besonders im Winter prädestiniert für Hochwasser. Die größten wurden in den Jahren
1845, 1850, 1862 und 1882 beobachtet. Damals erreichte die Donau noch höhere Wasserstände als im März 1988.

Wie durch geschickte Statistik aus Datenmaterial das „Gewünschte“ „herausgelesen“ wird, hat der Autor ebenfalls bereits einmal aufgezeigt. Auch darin wurde übrigens eine „klimawandel-bedingte Zunahme“ durch eine zu kurze – und fehlende, historische – Betrachtung herausgelesen:
EIKE 22.08.2017: [18] Verschiebt der Klimawandel Europas Hochwässer dramatisch

Dabei gibt es auch sonst genügend Anzeichen für eine andere Aussage:
Eine Studie (zitiert aus [9]) wertete die Hochwasser-Häufigkeiten im Alpenvorland aus. Diese kam zu dem Schluss: Ausgerechnet als es kurz vor Beginn der Industrialisierung am kältesten war, waren nach dieser Studie die Hochwasser am häufigsten.

Bild 25 Darstellung der Hochwasserhäufigkeit im bayerischen Alpenvorland [9]

Geradezu ketzerisch ist die weitere Aussage in dieser Studie: [9] „Die Hochwasserentwicklung zwischen dem 17. Jahrhundert und 1930 korreliert mit der Entwicklung der Sonnenflecken. Und das hoch signifikant“
Wie widersprüchlich dazu die Angaben in den offiziellen Publikationen sind, zeigt auch die die folgende Feststellung:
[19] … Als Fazit bleibt festzustellen, dass eine regionalspezifische Zunahme der Starkniederschlagshöhen am deutlichsten in den Wintermonaten Oktober – April statistisch nachweisbar ist … während im Sommer weniger extreme Niederschläge auftraten

Bild 26 [19] Verteilung von Veränderungen an Niederschlagshöhen >20 mm/Tag in Baden-Württemberg/Bayern

Wie man im Bild 26 sieht, fällt ausgerechnet das laut dem BR durch eine Zunahme besonders betroffene Oberbayern mit einer Abnahme im Sommerhalbjahr auf.

Macht aber nichts. Wie es „sein muss“, lässt sich simulieren:
[2] Ausmaß des künftigen Klimawandels
… Eine Verschiebung statistischer Mittelwerte und Verteilungen der Klimakenngrößen bedeutet auch eine Zunahme der Häufigkeit bisheriger Extremwerte. Eine Zunahme von Trockenperioden, aber auch von Starkniederschlägen, wird zwangsläufig eine Veränderung des Abflussgeschehens unserer Gewässer bewirken …

Nochmals Daten zur Gegend um den Chiemsee

Im folgenden Bild 27 zeigt sich wieder die Variabilität, welche oft auch nach 100 Jahren Trend plötzlich ausreißt, ohne den langzeit-Trend zu stören, beziehungsweise, ob es der Beginn einer Änderung des Langzeittrends ist, weiß man vielleicht in 100 Jahren, niemals aber anhand einer der üblichen, kurzfristigen Analysen.

Bild 27 [15] Mangfall: Höchstes Hochwasser seit 1899. Trendlinien vom Autor zugefügt

Bild 28 [15] Jahreshöchststände Chiemsee seit 1888. Trendlinien vom Autor zugefügt

Bild 29 [15] Jahreshöchststände Tegernsee seit 1895. Trendlinien vom Autor zugefügt

Bildunterschrift: Auch am Tegernsee war der Wasserstand der höchste seit 1899. Damals wurde ein Scheitel von 287 cm erreicht.

Ergebnis
Die Niederschlagsverläufe der Messstationen zeigen bei der Langzeitbetrachtung keinen steigenden Trend.

Freud und Leid hängen nicht von der CO2-Vermeidung ab

Simbach ist wohl das bisher extremste Beispiel einer Gemeinde, welche für CO2-Vermeidung zur Rettung der Welt zwar einen Klimaaward erhielt, wichtige Maßnahmen, um ihre Bürger zu schützen jedoch unterließ [20]. Die Strafe war furchtbar.

Nürnberg machte es vor über 100 Jahren nach der Flut von 1909 wie folgt: [2] Bereits 1910 begann man mit der Planung einer Flutüberleitung in der Altstadt. Wegen der Widerstände wurde diese zu den Akten gelegt. Dann zerstörte der 2. Weltkrieg die Altstadt fast vollständig. Nun war es möglich, die Planung doch umzusetzen. 1962 war die Umsetzung fertig. Seitdem gab es in Nürnberg keine Überflutung mehr.

Das bedeutet aber nicht, dass es allgemein akzeptiert würde. Was früher für die Bürge katsstophal war, gilt heute als „beglückend natürlich“ und gut, weil man die grausamen Auswirkungen nicht erlebt hat:
[2] … Heute werden jedoch die Begradigung der Pegnitz, der technische Uferverbau mit Beton und Stahlträgern sowie der Verlust von Flussauen als Mängel empfunden …

Rosenheim in Oberbayern hatte ebenfalls das Glück der Geschichte: Ihr (Teile davon) schützender Damm wurde 2012, gerade ein Jahr vor der sonst unweigerlich folgenden Überflutung der Altstadt fertig:

Manche können sich kaum vorstellen, wie extrem Städte auch in Deutschland direkt in Überflutungsgebieten siedeln. Das ist schon fast so, wie in Japan in Tsunami-gefährdeten Gebieten, oder den Südsee-Atollen, wo die neuen Häuser nicht mehr wie früher auf Stelzen gebaut werden, und sich die Bewohner nun beim Westen über das Wasser im Wohnzimmer beklagen.

Bild 32 Überflutungsgefährdetes Gebiet von Rosenheim. Das im Bild 33 gezeigte Überschwemmungsgebiet Oberwöhr vom Autor gekennzeichnet. Quelle: LfU Bayern, Hochwasserkarten

Und so sieht es trotz Dämmen aus, wenn das seit Jahrhunderten regelmäßig flutende Wasser wiederkommt:

Noch weiter zurück in die Vergangenheit

Es gibt Studien, die den Versuch wagen, Niederschläge der Vergangenheit zu ermitteln. Im folgenden Bild hat eine Studie drei Rekonstruktionen zusammengefasst.
Neben dem, dass sich die Rekonstruktionen zeitweise widersprechen – was die Probleme solcher Rekonstruktionsversuche überdeutlich aufzeigt -, zeigen alle trotzdem eines: Das aktuelle Wetter ist nicht entfernt extrem, „noch nie so gewesen“, oder gar schlimmer geworden.

Bild 34 [10] Niederschlagsverläufe Norddeutschland. Grenzlinien vom Autor zugefügt

Parodie am Rande: Hilft eine Zunahme der Überschwemmungen* den Biobauern?

Man könnte es fast meinen, wenn man liest, dass Hochwasser einst erwünscht, weil notwendig waren (der im Video interviewte „Staatsbedienstete“ spricht dieses Thema ebenfalls an):
[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit
Die Landwirtschaft strebte nur den Schutz vor schadbringenden Hochwassern im Sommer an, die Winterhochwasser dagegen, mit ihrer düngenden Wirkung, waren sogar erwünscht … Nach den Hochwasserereignissen um 1920 war durch die Zunahme des Schadenspotenzials in den Überschwemmungsgebieten ein größeres Schutzbedürfnis entstanden. Nun waren durch die aufkommende Verwendung von Kunstdünger in der Landwirtschaft die Winterhochwasser trotz ihrer düngenden Wirkung ebenfalls unerwünscht.

Das Klima hat zwischenzeitlich diesem, sicher über viele Jahrtausende bestehenden Wunsch nachgegeben, und den Niederschlag im Winter etwas erhöht, dafür im Sommer verringert.

Bild 35 Deutschland, Sommerniederschlag Anomalie. Quelle: DWD Viewer

Bild 36 Deutschland, Winterniederschlag Anomalie. Quelle: DWD Viewer

Bild 37 Deutschland, Jahresniederschlag Anomalie. Quelle: DWD Viewer

Dank der zwischenzeitlich entwickelten, modernen Agrartechnik allerdings zu spät, somit zur falschen Zeit. Außer man denkt GRÜN und will sowieso die moderne, erfolgreiche Landwirtschaft abschaffen. Dann muss man wegen dem durch die hohen Verluste des Bioanbaus enormen, zusätzlichem Platzbedarf auch wieder überschwemmungs-gedüngte Flussauen nutzen.

Es kann den inzwischen in Flussauen siedelnden Bewohnern also noch gehen wie den Autofahrern: Sie werden aus ihren Gebieten einfach vertrieben, weil man diese zur geforderten Ausweitung der Bio-Landwirtschaftsfläche benötigt. Da (auch fast entschädigungslose) Enteignung inzwischen wieder hoffähig geworden ist, wird einem solchen, GRÜNEN Wunsch keine der etablierten Parteien etwas dagegen setzen.

Trocknet unsere Heimat jetzt aus?

Diese Frage stellt unsere Agrarministerin, Frau Klöckner (Studium: Politikwissenschaft, katholische Theologie und Pädagogik) laut dem FOCUS: „Agrarministerin Klöckner über die Folgen der Hitze“.
Wer keine Ahnung hat, kann ja mindestens Fragen (in den Raum) stellen. Einfacher wäre es gewesen, die DWD-Daten (Bilder 35 – 38) anzusehen (dauert ca. eine Minute) und die Antwort bis zum Jahr 2100 zu erhalten. Diese ist eindeutig: Nein. Zumindest aufgrund der Daten aktuell und der Vergangenheit, erhärtet anhand der Simulationen (sofern man solchen „Glauben“ schenkt).
Das ist unseren Minister*innen (und hier auch dem FOCUS) aber schon seit Längerem für das kärgliche Gehalt (und Pensions-Anwartschaft) wohl nicht mehr zuzumuten: Und ihrem Agrar-Minsterium fehlen ersatzweise wohl geeignete, externe Berater, die so etwas „Kompliziertes“ schaffen könnten.

Bild 38 Deutschland, Jahresniederschlag absolut mit „Vorschau“ zum Jahr 2100. Quelle: DWD Viewer

oQuellen

[1] BR Reportagevideo: Chiemgau im Wandel – Hochwasser und Zombiebäume

[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit

[3] EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert

[4] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[5] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[6] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[7] EIKE 04.06.2018: Nun überschwemmt der Klimawandel bereits unsere Städte. Alternativ: Hat Deutschland kein Geld mehr, um sich gegen normale (Un-)Wetter zu schützen?

[8] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[9] Uni Augsburg, Dr. O. Böhm, Publizierung: Das Hochwasser und die Sonnenflecken

Studie: Changes of regional climate variability in central Europe during the past 250 years

http://link.springer.com/article/10.1140%2Fepjp%2Fi2012-12054-6

[10] tobias scharnweber at al.: Removing the no-analogue bias in modern accelerated tree growth leads to stronger medieval drought

[11] Hochwassernachrichtendienst Bayern, Pegel Staudach

[12] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[13] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[14] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[15] Wasserwirtschafsamt Rosenheim (Homepage), Schrift: Das Hochwasser vom Juni 2013 Dokumentation

[16] EIKE 19. Juni 2019: Tuvalu versinkt mal wieder – nicht. UNO Generalsekretär posiert für das Time Magazin

[17] EIKE 03.06.2018: Früher war es schlimmes Wetter, heute macht das Gleiche mit Sicherheit der Klimawandel

[18] EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch

[19] LUBW KLIWA-Projekt A 1.1.3: Langzeitverhalten der Starkniederschläge in Baden-Württemberg und Bayern
Tagesschau 22.06.2019: Deutsche Klimaziele Söder will Kohleausstieg schon 2030

[20] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[21] EIKE: Klimagaga: Heißzeitkatastrophe im Berliner Grundwasser

[22] Die Welt 11.05.2019: „Einzigartig kompetent“ Seehofer lobt Merkel: „Sie ist in dieser Regierung die Beste“

[23] MSN 27.06.2019: Hitzewelle 2019: Mehrere Tote, neue Temperatur-Rekorde und die Aussichten

[24] YouTube Video: Wetterexperte Stefan Rahmstorf: „Wir verlieren die Kontrolle über das Klimasystem“

[25] YouTube Video, Volker Quaschning: Ist Kohlendioxid wirklich ein Klimakiller?




Zeitliche Auflösung und Hockey­schläger

Abbildung 1a: Seismische Wellenlänge vs. Geschwindigkeit für dominante Frequenzen von 10, 25, 50 und 100 Hz (SEG Wiki)

Dünnere Schichten können erkannt, aber nicht aufgelöst werden. Gleiches gilt für normale Verwerfungen. Falls die vertikale Auflösung mindestens λ/4 beträgt, kann die Verwerfung aufgelöst und eine genaue Schätzung aufgrund der seismischen Daten vorgenommen werden. Falls die Auflösung geringer ist, kann man bestenfalls erkennen, dass eine Verwerfung vorhanden ist.

Abbildung 1b: Seismisches Abbild einer normalen Verwerfung bei λ/16, λ/8, λ/4, λ/2 and λ. (SEG Wiki) [Hinweis: Auch im Original ist die Graphik nicht deutlicher!]

Wenn man geologische und geophysikalische Daten integriert, unterteilen wir den Bohrkern nicht einfach in ein seismisches Profil. Wir konvertieren die Bohrkerne in ein synthetisches Seismogramm. Dies wird auf höchst effektive Weise erreicht mittels Schall- und Dichte-Messungen [sonic and density logs].

Abbildung 2: Synthetisches Seismogramm (AAPG Wiki).

Die Schall- und Dichte-Messungen werden herangezogen, um akustische Impedanz und eine Serie von Reflektions-Koeffizienten (RC) zu berechnen. Der RC ist verbunden mit einer kleinen seismischen Welle, oftmals extrahiert aus den seismischen Daten nahe des Bohrlochs. Die synthetischen seismischen Spuren (3 Paneele zur Rechten), können dann direkt verglichen werden mit dem seismischen Profil. Der Unterschied in der Auflösung ist ziemlich groß. Das Intervall von Trog zu Trog im seismischen Impuls unten liegt bei etwa 150 Metern.

Abbildung 3: schematischer Vergleich eines Bohrkerns mit einem seismischen Impuls mit einer Wellenlänge von 150 m

Was hat das nun mit Klima-„Wissenschaft“ zu tun?

Die Signaltheorie [?] und die Prinzipien der Bearbeitung von Signalen sind auf alle Signale anwendbar, nicht nur auf seismische Daten. Ein Signal ist eine zeitlich variable Abfolge von Zahlen. Fast alle Rekonstruktionen von Temperatur, Kohlendioxid und Meeresspiegel werden mittels vieler der gleichen Datenverarbeitungs-Verfahren wie beim Verarbeiten seismischer Daten erstellt. Dekonvolution ist besonders unentbehrlich bei der Erstellung von Kohlendioxid-Chronologien aus Eisbohrkernen. Manchmal werden die Signal-Verarbeitungsverfahren ordnungsgemäß durchgeführt. Van Hoof et al. (2005) zeigten, dass die CO2-Daten aus Eisbohrkernen repräsentieren ein über Jahrhunderte und Jahrtausende gleitendes Mittel von CO2-Niveaus in der Vergangenheit. Im Wesentlichen wurde ein synthetisches Seismogramm erzeugt aus Stomata-Chronologien und mit dem Eisbohrkern in Zusammenhang gestellt.

Abbildung 4: Graphik A zeigt eine Häufigkeitskurve aus Stomata-Daten. Graphik B zeigt den Eisbohrkern D47 aus der Antarktis. Die gestrichelte Linie in Graphik B ist der „synthetische“ Eisbohrkern, erzeugt mittels der Stomata-Häufigkeitskurve (Van Hoof et al. 2005)

Aus meiner geologischen Perspektive sind die meisten Klima-„Hockeyschläger“ das Ergebnis unsachgemäßer Integration von instrumentellen Daten mit hoher Auflösung (wie in Bohrkernen) und weniger hoch aufgelöster Proxydaten (wie bei der Reflektion seismischer Daten). Viele dieser Hockeyschläger scheinen das Ergebnis einer nachlässigen, wenn nicht sogar unverantwortlichen Missachtung grundlegender Prinzipien der Signalverarbeitung zu sein.

Hockeyschläger bei der Temperatur-Rekonstruktion

Abbildung 5: „Mike’s Nature Trick“. Ältere Daten stehen links.

Eine der ungeheuerlichsten Verstöße gegen diese Prinzipien ist die Erzeugung von Klima-„Hockeyschlägern“ mittels Variationen von „Mike’s Nature Trick“.

Nach dem Klimagate-Skandal führte die Penn State [= Pennsylvania State University] eine „Untersuchung“ von Mike’s Nature Trick durch. Die Weißwäsche seitens Penn State war grotesk:

Nach sorgfältiger Bewertung aller Beweise und relevanter Unterlagen kommt das Untersuchungs-Komitee zu dem Ergebnis, dass es keine glaubwürdigen Beweise dafür gibt, dass Dr. Mann jemals versucht oder daran teilgenommen hat, direkt oder indirekt, Maßnahmen durchzuführen oder durchgeführt hat mit der Absicht, Daten zu unterdrücken oder zu fälschen.

RA-10 Inquiry Report

Es kann nicht nachgewiesen werden, dass er die Absicht hatte, unbequeme Daten zu verstecken oder zu fälschen.

Das hier ist besonders lächerlich:

Tatsächlich war es im Gegenteil so, dass in Fällen, auf die sich Einige konzentriert hatten, um Fälschungen von Daten zu belegen, beispielsweise mittels eines „Tricks“ um Daten zu manipulieren, es dargestellt wird als eine Diskussion zwischen Dr. Jones und Anderen einschließlich Dr. Mann, wie man am besten eine Graphik für einen WMO-Report erzeugen könnte. Sie fälschten keine Daten, sondern sie versuchten, eine verständliche Graphik zu konstruieren für jene, die keine Experten in dem Bereich waren. Dieser so genannte „Trick“ war nichts weiter als ein statistisches Verfahren, um zwei oder mehr Arten von Daten auf legitime Weise zusammen zu bringen mittels eines Verfahrens, welches durch viele Fachleute in dem Bereich begutachtet worden war.

RA-10 Inquiery Report

Die harmloseste Erklärung des „Tricks“ lautet, dass man Teile der Rekonstruktion von Keith Briffa bearbeitet hat, weil die Chronologie der Baumringen zeigten, dass die 1930er Jahre bis Anfang der 1940er Jahre wärmer waren als zum Ende der 1990er Jahre. Also ersetzten sie die Baumring-Chronologie durch instrumentelle Aufzeichnungen. Im privaten Bereich ist dieses Verhalten alles andere als harmlos … Es ist vielmehr die Grundlage für sofortige Terminierung oder Schlimmeres.

Ich vermute, dass es keine Beweise dafür gibt, dass man dies in betrügerischer Absicht machte. Allerdings lässt es die Tatsache, dass man es „Mike’s Nature Trick“ nannte, es so aussehen, als ob diese Art des Verfahrens eine Standard-Prozedur war.

Zieht man einen Datensatz heran, welcher zeigt, dass die 1930er Jahre wärmer waren als die 1990er Jahre, und dann einen anderen Datensatz, um diese Relation umzukehren, dann ist das „kein Zusammenbringen von zwei oder mehr Datenarten auf legitime Weise“. Vielmehr handelt es sich dabei um eine totale Verfälschung der Daten.

Beispiele für „Mike’s Nature Trick“ gibt es hier und hier.

Man öffne irgendeinen der **cru_eiv_composite.csv oder **had_eiv_composite.csv-Dateien. Alle verbinden die zeitlich hoch aufgelösten instrumentellen Daten mit den gering aufgelösten Proxy-Daten. Zu Manns Gunsten muss man sagen, dass er zumindest dies so dokumentiert hat, dass man es ausfindig machen kann.

Folgende Aussage aus ihrer PNAS-Studie wird von den Proxy-Rekonstruktionen in keiner Weise gestützt: „Die jüngste Erwärmung scheint anomal zu sein hinsichtlich mindestens der letzten 1300 Jahre, ob nun Baumringe herangezogen worden sind oder nicht. Falls Baumringdaten verwendet worden sind, kann diese Schlussfolgerung auf die letzten 1700 Jahre erweitert werden“.

Die anomale Natur der „jüngsten Wärme“ ist vollständig abhängig von dem „trickreichen“ Gebrauch der instrumentellen Daten. Er hat keine Proxy-Daten nach 1850 verwendet. In der eivrecondescription-Datei heißt es: „Man beachte: Werte von 1850 bis 2006 sind instrumentelle Daten“.

Die folgende Graphik aus der Mann-Studie aus dem Jahr 2008 impliziert, dass alle Rekonstruktionen allgemein übereinstimmen hinsichtlich der Behauptung, dass die „jüngste Erwärmung seit mindestens 1300 Jahren anomal erscheint“ …

Abbildung 6: „Spaghetti-Graphik von Mann et al., 2008. Die älteren Daten sind links.

Durch das Ausfüllen der Graphik mit vielen Rekonstruktionen und das Verputzen mit den instrumentellen Aufzeichnungen am Ende des Graphen ist es unmöglich, irgendwelche Details zu erkennen.

Hier eine Graphik von Mann & Moberg 2005; Christiansen & Ljungqvist 2012 (nicht geglättet), Ljungqvist 2010 und Esper 2002 (geringe Häufigkeit) …

Abbildung 7: Streuung kann in beide Richtungen wirken. Ältere Daten sind links.

Vergrößerung nach 1800 und hinzugefügten HadCRUT4-Daten der NH:

Abbildung 8. Ältere Daten sind links.

Die Moderne Erwärmung erscheint nur deswegen anomal, weil die höhere Auflösung der instrumentellen Aufzeichnungen und deren Lage alle am Ende der Zeitreihe liegen.

Ljungqvist (2010) erklärte das Problem des direkten Vergleichs von instrumentellen Daten mit Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten geht über 0,6°C hinaus. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit zeigt, etwa vom Jahr 1 bis 300 und etwa auf dem Niveau des mittleren Temperaturniveaus von 1961 bis 1990. Es folgte die Kaltzeit des Dark Age von 300 bis 800, die Mittelalterliche Warmzeit von 800 bis 1300 sowie die Kleine Eiszeit von 1300 bis 1900 treten klar hervor. Letzterer folgte im 20. Jahrhundert eine rapide Erwärmung. Die höchsten Mitteltemperaturen in der Rekonstruktion zeigen ich Mitte bis Ende des 20. Jahrhunderts, die niedrigsten Ende des 17. Jahrhunderts. Dekadische Mittelwerte der Temperatur scheinen während substantieller Zeiträume der Römischen und der Mittelalterlichen Warmzeit höher gelegen zu haben als im Zeitraum 1961 bis 1990. Die Temperatur der letzten beiden Jahrzehnte jedoch liegt möglicherweise höher denn je während der letzten zwei Jahrtausende. Allerdings zeigt sich dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solche beispiellose Erwärmung, aber wir müssen berücksichtigen, dass nur wenige, in die Rekonstruktion eingegangene Reihen bis in die neunziger Jahre reichen. Nichtsdestotrotz ist eine sehr sorgfältige Interpretation des Wärmeniveaus seit dem Jahr 1990 im Vergleich zu den wärmsten Zeiten der Römischen und der Mittelalterlichen Warmzeit dringend geboten.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität über Multi-Jahrzehnte und Jahrhunderte sollte als das Minimum der wahren Variabilität jener zeitlichen Maßstäbe betrachtet werden.

Ljungqvist 2010

Abbildung 9: Ljungqvist zeigte, dass die Moderne Warmzeit nicht eindeutig über die Bandbreite der natürlichen Variabilität hinaus gegangen ist. Die dick gestrichelte schwarze Linie repräsentiert die instrumentelle Aufzeichnung. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite der Proxy-Daten relativ zu den instrumentellen Daten zu reflektieren. Ältere Daten stehen links.

Direkte Vergleiche der modernen instrumentellen Aufzeichnungen mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung aufweisen. Die Proxy-Daten zeigen das „Minimum der wahren Variabilität über jene Zeiträume“. Die instrumentellen Daten beschreiben es irgendwie näher der tatsächlichen Variabilität.

Den Proxy-Daten fehlt die Komponente hoher Frequenzen des Signals. Wird die Hochfrequenz-Komponente eines Signals herausgefiltert, dämpft das die Amplitude.

Abbildung 10: Sinuswelle mit einer 10-pt smoothing average. Man beachte die Reduktion der Amplitude infolge Filterung und Glättung (Wood for Trees). Ältere Daten links.

Der direkte Vergleich von instrumentellen Daten mit Proxy-Daten wird sogar noch problematischer, wenn man die zeitliche Länge der Aufzeichnung über 2000 Jahre hinaus verlängert.

Abbildung 11: Klima-Rekonstruktion des Holozän, Andy May WUWT. Ältere Daten sind rechts.

Die vermeintlich „viertwärmsten Jahre jemals“ ereigneten sich etwa 300 Jahre nach dem kältesten Jahrhundert der vergangenen 100 Jahrhunderte. Dies kann nur von jemandem als „Klimakrise“ oder „Klima-Notstand“ bezeichnet werden, der absolut ignorant ist gegenüber grundlegenden wissenschaftlichen Prinzipien, besonders gegenüber Quaternary Geology und Signal-Verarbeitung.

Je zeitlich länger die Aufzeichnung der Rekonstruktion ist, umso wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxys konsistent ist mit jüngeren Proxys. Die zeitliche Auflösung ist eine Funktion des Stichproben-Intervalls.

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen die Auswahl der Proxys ist. Wie in diesen Beiträgen dokumentiert sind etwa 73 Proxys beeinflusst von der Art der Auflösung, welche die signifikanten Klimaereignisse verschleiert. Einige sind auch beeinflusst durch lokale Bedingungen, die keine regionale oder globale Bedeutung haben. Andere überdenken kurze Zeiträume, die nicht die beiden bedeutendsten Klimaereignisse des Holozäns abdecken, nämlich die Kleine Eiszeit und das Holozän-Klimaoptimum.

(…)

Wir haben auch Proxys über lange Zeiträume (mehr als 130 Jahre) außen vor gelassen, weil sie dazu neigen, die Auflösung der Rekonstruktion zu reduzieren und wichtige Details heraus zu mitteln. Der kürzeste Klimazyklus dauert grob 61 bis 64 Jahre, die so genannte „stadium wave“, und wir wollen versuchen, möglichst genau dessen Einfluss zu erkennen. In dieser einfachen Rekonstruktion haben wir versucht, all dem Rechnung zu tragen.

Andy May WUWT

Dies ist eine Tabelle aller „untersuchten“ Proxys. Sie haben eine weitgehend konsistente zeitliche Auflösung. Es sind lange Zeitreihen und überdecken sowohl das Holozän-Klimaoptimum als auch die Kleine Eiszeit, also die wärmste und die kälteste Klimaphase im Holozän. Andys Proxys haben eine mittlere Auflösung von 75 Jahren und eine mittlere Länge der Aufzeichnung von 11.697 Jahren mit geringen Standardabweichungen. Es gibt keinen signifikanten Trend einer abnehmenden Auflösung mit der Zeit, wie es bei den meisten Proxy-Rekonstruktionen der Fall ist.

Abbildung 12: Zeitliche Auflösung (linke Achse) und Länge der Aufzeichnung (rechte Achse). Ältere Daten sind rechts.

Andys Rekonstruktion zeigt, dass der Tiefpunkt der Kleinen Eiszeit die kälteste Klimaperiode des Holozäns war. Dies ist ein Merkmal jeder Nicht-Hockeyschläger-Rekonstruktion und sogar der meisten Hockeyschläger-Rekonstruktionen einschließlich der reihenweise falschen Rekonstruktion von Marcott et al., 2013. Sie zeigt des Weiteren, dass die Moderne Warmzeit relativ zum allgegenwärtigen Klimasignal des Holozäns ziemlich unscheinbar daherkommt (Bohling &Davis, 2001).

Falls man die Übersicht der Referenzen der Rekonstruktionen öffnet und auf die rechts außen liegende Spalte schaut (Kommentare), liest man die Anmerkungen von Andy, ob das Proxy „herangezogen“ wurde, und er erklärt, warum es zurückgewiesen wurde. Die drei Hauptgründe für die Zurückweisung eines Proxys waren:

1. Grobe Auflösung (gekennzeichnet als „Auflösung zu groß“)

2. Nicht alt genug

3. Nicht jung genug

Andy hätte die instrumentelle Aufzeichnung bis zum Ende hiervon verbinden und einen Hockeyschläger erzeugen können … Aber das wäre außerhalb akademischer oder regierungsamtlicher „Wissenschaft“ betrügerisch. Es gleicht dem Zusammenfügen eines Bohrkerns mit einer seismischen Linie und es dann eine Anomalie nennt.

Hinsichtlich Marcott stellen die Autoren fest, dass ihre Holozän-Rekonstruktion nicht direkt verglichen werden können mit instrumentellen Daten infolge der Unterschiede bzgl. der Auflösung … aber sie tun es natürlich trotzdem.

Frage: Was sagen Rekonstruktionen der Paläotemperatur über den Temperaturverlauf der letzten 100 Jahre?

Antwort: Unsere Rekonstruktion der globalen Paläotemperatur enthält u. A. den so genannten „Uptick“ der Temperaturen während des 20. Jahrhunderts. Allerdings stellen wir in der Studie klar, dass dieses Einzelereignis von kürzerer Dauer ist als die inhärente Glättung bei unserem statistischen Mittelungsverfahren, und dieses basiert lediglich auf nur wenigen verfügbaren Paläo-Rekonstruktionen des von uns verwendeten Typs. Folglich ist der Anteil unserer Paläotemperaturwerte nicht statistisch robust und kann nicht als repräsentativ angesehen werden für globale Temperaturänderungen. Darum ist sie auch nicht die Grundlage unserer Schlussfolgerungen. Unsere primären Ergebnisse basieren auf einem Vergleich der längerfristigen Änderungen der Paläotemperatur aus unserer Studie mit den gut dokumentierten Temperaturänderungen, zu welchen es im vorigen Jahrhundert gekommen war, wie durch instrumentelle Aufzeichnungen dokumentiert. Obwohl es nicht Teil unserer Studie ist, wurden hoch aufgelöste Daten der letzten ~130 Jahre aus verschiedenen globalen Archiven zusammengestellt. Diese bestätigen den allgemeinen Erwärmungstrend über dieses Zeitintervall (Anderson, D.M. et al., 2013, Geophysical Research Letters, v. 40, p. 189-193; http://www.agu.org/journals/pip/gl/2012GL054271-pip.pdf).

Frage: Ist die Rate des Temperaturanstiegs der letzten 100 Jahre höher als zu irgendeiner anderen Zeit während der letzten 11.300 Jahre?

Antwort: Unsere Studie hat sich nicht direkt mit dieser Frage befasst, weil die in unserer Studie herangezogenen Aufzeichnungen der Paläotemperatur im Mittel eine zeitliche Auflösung von etwa 120 Jahren haben. Dies erlaubt keine Untersuchungen hinsichtlich der Änderungsraten innerhalb eines Jahrhunderts. Andere Faktoren tragen ebenfalls zur Glättung der Proxytemperatur-Signale bei, welche in vielen von uns verwendeten Aufzeichnungen stecken. Dazu gehören etwa Organismen im Schlamm am Grund der Tiefsee sowie chronologische Unsicherheiten in den Proxy-Aufzeichnungen, welche dazu neigen, die Signale zu glätten, wenn man sie in eine global gemittelte Rekonstruktion eingehen lässt. Wir wiesen nach, dass keine Temperaturvariabilität in unserer Rekonstruktion steckt mit Zyklen kürzer als 300 Jahre. 50% sind enthalten im Zeitmaßstab von 1000 Jahren, und fast alle sind enthalten in Perioden über 2000 Jahre oder mehr. Unsere Monte-Carlo-Analyse trägt diesen Quellen von Unsicherheit Rechnung, um eine belastbare, (wenngleich geglättete) globale Aufzeichnung zu erhalten. Jedwede geringe „Upticks“ oder „Downticks“ der Temperatur, die kürzer sind als einige hundert Jahre in unserer Zusammenstellung paläoklimatischer Daten, sind nicht belastbar, wie in unserer Studie festgestellt.

Real Climate

Falls der „Anteil im 20. Jahrhundert unserer Paläotemperaturen nicht statistisch robust ist“ … Warum fand das dann überhaupt Eingang in die Veröffentlichung? Die modernen instrumentellen Aufzeichnungen wären ein einzelner Datenpunkt bei der Auflösung von Marcotts Rekonstruktion.

Warum ist das von Bedeutung?

Was also würde es bedeuten, falls die Rekonstruktionen eine größere (Esper et al., 2002; Pollack and Smerdon, 2004; Moberg et al., 2005) oder geringere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude zeigen? Wir zeigen, dass Ersteres, also eine verstärkte Variabilität während vorindustriellen Zeiten zu einer Umverteilung des Gewichtes hin zu der Rolle natürlicher Faktoren bzgl. des Antriebs von Temperaturänderungen, den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst. Falls das der Fall sein sollte, wären Übereinkommen wie das Kyoto-Protokoll mit der Absicht, die Emissionen anthropogener Treibhausgase zu reduzieren, weniger effektiv als gedacht.

Esper et al. 2005

Es ist von Bedeutung, weil die einzige Möglichkeit, instrumentelle Daten direkt mit vorindustriellen Proxy-Daten zu vergleichen, eine Filterung der instrumentellen Daten auf die Auflösung der Proxy-Daten zu bringen. Dies ergibt Klima-Rekonstruktionen mit „verstärkter Variabilität in vorindustrieller Zeit“ und „verleiht der Rolle natürlicher Antriebe bzgl. Temperaturänderungen größeres Gewicht, was den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst“.

Es ist von Bedeutung, weil die Befürworter des Anthropozän als geologische Epoche sich auf den Marcott’schen Hockeyschläger stützen.

Abbildung 13: Lauft weg! Das Anthropozän ist über uns gekommen!!! Ältere Daten stehen links.

Es ist von Bedeutung, weil Hockeyschläger bemüht werden, um politische Änderungen zu rechtfertigen, Kohlenstoff-Steuern zu erheben und die individuelle Freiheit und den Wohlstand zu zerschlagen.

Viele der vermeintlichen Beweise, dass jüngste Klimaänderungen von den Normen des Holozäns abweichen, sind genauso konsistent wie das Ergebnis von Differenzen in der Auflösung von paläoklimatischen Daten und instrumentellen Aufzeichnungen.

References

Anklin, M., J. Schwander, B. Stauffer, J. Tschumi, A. Fuchs, J. M. Barnola, and D. Raynaud (1997), “CO2record between 40 and 8 kyr B.P. from the Greenland Ice Core Project ice core,” J. Geophys. Res., 102(C12), 26539–26545, doi: 10.1029/97JC00182.

Christiansen, B. and F.C. Ljungqvist. 2012. “The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability”. Climate of the Past, Vol. 8, pp. 765-786. www.clim-past.net/8/765/2012/ doi:10.5194/cp-8-765-2012

Davis, J. C., and G. C. Bohling. “The search for patterns in ice-core temperature curves. 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Esper, J., E.R. Cook, and F.H. Schweingruber. 2002.  “Low-Frequency Signals in Long Tree-Ring Chronologies for  Reconstructing Past Temperature Variability”.  Science, Volume 295, Number 5563, 22 March 2002.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J.-M. Barnola and V.I. Morgan. 1998. “Historical CO2 records from the Law Dome DE08, DE08-2, and DSS ice cores”. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., U.S.A.

Finsinger, W. and F. Wagner-Cremer. “Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach”. The Holocene 19,5 (2009) pp. 757–764

Kouwenberg, LLR. 2004. “Application of conifer needles in the reconstruction of Holocene CO2 levels”. PhD Thesis. Laboratory of Palaeobotany and Palynology, University of Utrecht.

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

Mann, Michael,  Zhihua Zhang, Malcolm K Hughes, Raymond Bradley, Sonya K Miller, Scott Rutherford, & Fenbiao Ni. (2008). “Proxy-based Reconstructions of Hemispheric and Global Surface Temperature Variations over the Past Two Millennia”. Proceedings of the National Academy of Sciences of the United States of America. 105. 13252-7. 10.1073/pnas.0805721105.

McElwain et al., 2002. “Stomatal evidence for a decline in atmospheric CO2 concentration during the Younger Dryas stadial: a comparison with Antarctic ice core records”. J. Quaternary Sci., Vol. 17 pp. 21–29. ISSN 0267-8179

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko & W. Karlén. 2005. “Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Van Hoof, Thomas, Karsten A. Kaspers, Friederike Wagner-Cremer, R.S.W. Wal, Wolfram Kürschner & Henk Visscher. (2005). “Atmospheric CO 2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis”. Tellus B. 57. 10.3402/tellusb.v57i4.16555.

For additional references, see these Watts Up With That posts:

https://wattsupwiththat.com/2012/12/07/a-brief-history-of-atmospheric-carbon-dioxide-record-breaking/

https://wattsupwiththat.com/2017/03/28/breaking-hockey-sticks-antarctic-ice-core-edition/

https://wattsupwiththat.com/2017/06/09/a-holocene-temperature-reconstruction-part-4-the-global-reconstruction/

https://wattsupwiththat.com/2019/06/06/the-holocene-sea-level-highstand/

Link zu diesem Beitrag: https://wattsupwiththat.com/2019/06/25/resolution-and-hockey-sticks-part-1/




Studie: Übergang zu 100% erneuer­bare Energie in den USA ,würde zu einer Katastrophe führen‘

[Die ganze Studie steht hier]

Das geht aus neuen Forschungen von Tim Benson hervor, einem Politik-Analysten am Heartland Institute, die von Environment & Climate News veröffentlicht worden sind. „Ein nationales Ziel zu setzen, sich innerhalb eines Jahrzehnts zu 100% auf erneuerbare Energie zu verlassen, würde direkt in eine Katastrophe münden“ und „mindestens 5,7 Billionen Dollar an Investitionen in erneuerbare Energie und Speicherung kosten“. Zu diesem Ergebnis kommt eine Studie des Institute for Energy Research (IER), aus dem Benson zitiert.

Erneuerbare Energiequellen wie Wind und Solar sind unberechenbare Erzeuger und abhängig von Wetterbedingungen mit Kapazitätsfaktoren jeweils von 34,6% bzw. 25,7%. Wegen dieser geringen Kapazitätsfaktoren müssen Erneuerbare ein Backup durch konventionelle Energiequellen haben wie Erdgas und Kohle oder – alternativ – großräumige Batteriespeicher. Letzteres ist jedoch eine extrem teure Technologie und ist in der erforderlichen Größenordnung noch gar nicht existent.

Extremer Landverbrauch

Die IER-Studie hatte festgestellt, dass Wind- und Solarinstallationen riesige Landflächen benötigen im Vergleich zu konventionellen Energiequellen wie Kohle und Erdgas. „Windenergie erfordert 70,64 Acres [28 ha] Fläche pro Megawatt, Solarenergie 43,5 Acres [17 ha] pro Megawatt“ heißt es in der Studie. „Im Gegensatz dazu brauchen Erdgas-Kraftwerke lediglich 12,41 Acres [5 ha] Landfläche pro Megawatt.

Das bedeutet, dass Solarenergie mehr als dreieinhalb mal so viel Landfläche pro Megawatt verbraucht und Windenergie mehr als fünfeinhalb mal so viel“. Soweit aus der Studie.

Benson schreibt dazu, dass die Herstellung von Windturbinen und Solarpaneelen auch große Mengen seltener Erdmetalle benötigt, welche hauptsächlich in China abgebaut und aufbereitet werden. Das bedeutet, je größer der gesetzlich vorgeschriebene Anteil an Erneuerbaren ist, desto abhängiger ist das Stromnetz der USA von der Gnade einer oftmals feindlichen Nation, die noch dazu mit den USA im Wettbewerb um wirtschaftliche Vorherrschaft steht und nach geopolitischem Einfluss trachtet.

Vorschriften bzgl. des Anteils = höhere Kosten

Selbst in einem viel kleineren Rahmen müssen Anwohner und Geschäftsbereiche in Staaten, welche den staatlichen Stromversorgern einen bestimmten Anteil der Stromerzeugung mittels Erneuerbarer gesetzlich vorschreibt, Preise hinnehmen, die bis zu 200% über dem mittleren nationalen Preis liegen, wie aus den beiden Studien hervorgeht.

Beispiel: Ein Report der EIA stellt fest, dass die Strompreise in North Dakota um 40% gestiegen waren, nachdem der Anteil Erneuerbarer an der Stromerzeugung von 9 auf 27% gestiegen war. In South Dakota gab es einen Anstieg um 34% nach einer Erhöhung des Anteils Erneuerbarer von 5 auf 30%. In Kansas belief sich der Preisanstieg auf 33% nach einer Anteilssteigerung von 6 auf 36%.

„Staaten mit diesen Vorschriften bzgl. Erneuerbarer verzeichneten Strompreise, die um 26% höher lagen als sie ohne diese Vorschriften gewesen wären“, schreibt Benson. „Die 29 US-Staaten mit gesetzlichen Vorschriften bzgl. Erneuerbarer verzeichneten mittlere Verkaufspreise für Strom von 11,93 Cent pro kWh.

Andererseits zahlt man in 21 US-Staaten ohne derartige Vorschriften mittlere Preise von nur 9,38 Cent pro kWh.

In nur 12 Staaten betrugen sich die Gesamtkosten durch Erneuerbaren-Vorschriften im Jahre 2016 5,76 Milliarden Dollar. Bis 2030 werden sie auf 8,8 Milliarden Dollar steigen“, sagte Benson unter Verweis auf Daten aus einer Studie aus dem Jahr 2016.

Kenneth Artz writes from Dallas, Texas. He has has more than 20 years’ experience in nonprofit organizations, publishing, newspaper reporting, and public policy advocacy.

INTERNET INFO

“The 100 Percent Renewable Energy Myth, Institute for Energy Research, February 8, 2019: https://www.heartland.org/publications-resources/publications/the-100-percent-renewable-energy-myth

Tim Benson, “Research & Commentary: U.S. Transition To 100 Percent Renewable Energy ‘Would Lead To Catastrophe,’” The Heartland Institute, April 24, 2019: https://www.heartland.org/publications-resources/publications/research–commentary-us-transition-to-100-percent-renewable-energy-would-lead-to-catastrophe

Link: https://www.heartland.org/news-opinion/news/us-transition-to-100-percent-renewable-energy-would-lead-to-catastrophe-study-says

Übersetzt von Chris Frey EIKE




Frankreichs neue „heißeste jemals gemessene Tempe­ratur“ ist fragwürdig – denn wo wurde sie gemessen?

 

So viel dazu, dass nur mit korrekt aufgestellten Instrumenten in einer in offenem Gelände entfernt von unnatürlichen Heizquellen stehende Wetterhütte gemessen wird.

Hier erkennt man die Wetterhütte:

 

https://goo.gl/maps/hF4KbSoXTt6WZfLr6

Hier wird es lustig – es könnte der „Treibhaus-Effekt“ sein / sarc

 

Im Ernst jedoch, wer weiß, welche Auswirkungen jene Treibhäuser auf die hohe Temperatur gehabt haben? Was wir wissen ist, dass Treibhäuser Wärme sich akkumulieren lassen und die Temperatur erhöhen. Abhängig von der Windrichtung jenes Tages könnte die Abwärme in Richtung der Thermometerhütte geblasen worden sein. Gleiches könnte auch für die asphaltierte Autobahn gelten.

Zur Hitzewelle selbst fügt Dr. Roy Spencer hinzu:

Wenn Sahara-Luft Europa erreicht, wird es heiß. Hinsichtlich rekordhoher Messungen ist es legitim, die Platzierung von Temperatur-Messfühlern zu hinterfragen, ebenso die Länge der Zeitreihe.

Für eine Zeitreihe von, sagen wir, über 100 Jahren und KEINEM langfristigen Erwärmungstrend kann man immer noch aufgrund der Wetter-Variationen erwarten, dass von Zeit zu Zeit neue Rekorde der Temperatur gemessen werden.

Der jüngste Wärmerekord in Miami wurde mitten in einem riesigen Beton-Dschungel gemessen, der vor 100 Jahren noch gar nicht existierte. Jetzt werden dort im Mittel Temperaturwerte gemessen, die um ca. 5°C über den Werten der ländlichen Umgebung liegen.

Noch etwas anderes gilt es zu berücksichtigen – Wetterhütten, die so leicht zugänglich sind wie hier sind anfällig für Verzerrungen (oder Antriebe, wenn man will), welche „reale Klimatologen“ normalerweise nicht berücksichtigen – wie z. B. Fahrzeuge, die direkt daneben parken. Man betrachte das Satellitenbild (Messpunkt ist rot eingekreist:

 

Luftbild des Messpunktes, an welchem die „Allzeit-Rekordtemperatur“ gemessen worden ist (rot eingekreist). Man beachte, wie nahe die Hütte der Autobahn und Treibhäusern steht: Google Earth: https://www.google.com/maps/@43.746687,4.2594672,126m/data=!3m1!1e3.

Ist noch das Fiasko aus Schottland vor einigen Jahren in Erinnerung? Ein Eiscreme-Lastwagen mit konstant laufenden Generatoren war die Ursache eines „vom Menschen verursachten klimatologischen Ereignisses“ (hier, auf Deutsch beim EIKE hier):

 

Ist also der neue französische Allzeit-Rekord bzgl. hoher Temperatur valide? Ich vermute mal nein. Es gibt einfach zu viele Einflüsse, die berücksichtigt werden müssen.

Mit Sicherheit ist die Umgebung des Messpunktes hier völlig anders geartet als vor 100 Jahren. Und wer weiß? Vielleicht parkte jemand sein Fahrzeug am 28. Juni neben dem Messpunkt? Vielleicht ein Versorgungslaster?

Aktualisierung 1 (29.6.2019, 11:40 Uhr): In Kommentaren wird gefragt, ob dieser Messpunkt tatsächlich „die Station“ ist oder nicht. Unabhängig davon ist diese Wetterhütte ganz schlecht aufgestellt. Ich werde nochmal nachschauen.

Aktualisierung 2 (29.6.2019, 11:56 Uhr): Es scheint, als ob es sich nicht einmal um einen „Allzeit-Rekord“ gehandelt hat:

Link: https://wattsupwiththat.com/2019/06/29/frances-new-hottest-recorded-temperature-ever-is-in-question-guess-where-it-was-measured/




Experimen­telle Verifi­kation des Treibhaus­effektes 5. Mitteilung: Die IR-Strahlung der Spuren­gase

Eine Beurteilung der Strahlungsfähigkeit ist zunächst schwierig, da hier viele Parameter wie Konzentration, Temperatur, Hintergrund oder Anzahl der beteiligten Moleküle (Abb. 1) berücksichtigt werden müssen. Um dennoch die IR-aktiven Gase mit einer einzigen Kennziffer charakterisieren und bewerten zu können, wurde ein molarer Emissionsgrad εm eingeführt. Dabei wird die IR-Strahlungsdichte von 1 mol eines IR-Gases mit der eines Schwarzkörpers verglichen (Tab. 1). Setzt man den molaren Emissionsgrad εm von CO2 =1, erhält man den relativen Emissionsgrad εrel von IR-aktiven Gasen im Vergleich zum CO2.

Tatsächlich zeigt Lachgas mit einem relativen Emissionsgrad εrel von 1,26 eine etwas höhere Strahlungsfähigkeit als CO2, aber bei weitem nicht das angeblich 265-mal stärkere Treibhauspotential. Beim Methan bahnt sich sogar eine kleine Sensation an. Methan, angeblich 28-mal wirksamer als CO2, kommt nur auf 66 % der CO2-Strahlung. Ist das IPCC einer frechen Lüge überführt? Nein, soweit würde ich nicht gehen! M.E. wurde das IPCC mit einem klaren politischen Auftrag gegründet. Die Industriegesellschaft sollte als Verursacher eines angeblich gefährlichen „Global Warming“ angeprangert werden, wodurch Zielrichtung und Schuldfrage vorgegeben waren. Vor allem sollen Ängste geschürt werden, um Konsumverzicht und De-Industrialisierung zu rechtfertigen. In den folgenden Kapiteln wird nachgewiesen, dass der „Treibhauseffekt“ real aber relativ klein ist und IPCC mit fragwürdigen Methoden eine Klimahysterie entfacht, die einer sachlichen Prüfung nicht standhalten.

  1. Was sind Emissionsgrade und wie werden sie ermittelt?

Jeder (feste und flüssige) Körper, dessen Temperatur über dem absoluten Nullpunkt liegt, sendet Wärmestrahlung aus. Der Emissionsgrad eines Körpers (ε) gibt an, wie viel Strahlung er im Vergleich zu einem idealen Wärmestrahler, einem schwarzen Körper, abgibt.“ „Ein schwarzer Körper ist ein hypothetischer idealisierter Körper, der jegliche auf ihn treffende elektromagnetische Strahlung bei jeder Frequenz vollständig absorbiert (ε = 1).“ [3]

Oder mit einfachen Worten: Der Emissionsgrad charakterisiert die Fähigkeit eines Körpers, Wärmestrahlung zu erzeugen. Emissionsgradtabellen zeigen die Emissionsgrade ε von verschiedenen Stoffen im Bereich zwischen 0,02 bis 0,98 [4]. Dabei spielt die Oberfläche eine wesentliche Rolle. Sehr gute Strahler haben schwarze, raue Oberflächen und können Emissionsgrade ε nahe 1 erreichen, während weiße, glatte oder sogar polierte Oberflächen nur geringe Emissionsgrade nahe 0 haben.
Man unterscheidet verschiedene Emissionsgrade, die sich auch untereinander kombinieren lassen:

  • Gerichtet: Die Strahlung wird in eine bestimmte Richtung pro Raumwinkel abgestrahlt
  • Hemisphärisch: Der gesamte Halbraum wird pro Flächeneinheit bestrahlt
  • Spektral: Die Strahlungsleistung bei einer bestimmten Wellenlänge
  • Gesamt: Die Strahlungsleistung aller verfügbaren Wellenlängen

Dabei gilt: „Nach dem kirchhoffschen Strahlungsgesetz ist für jeden Körper der gerichtete spektrale Emissionsgrad gleich dem gerichteten spektralen Absorptionsgrad.“ [3]

Bei den Gasen können nur bestimmte, die sogenannten IR-aktiven Gase, Wärmestrahlung (IR-Licht) absorbieren oder emittieren.

Gase absorbieren und emittieren elektromagnetische Strahlung, anders als andere Aggregatzustände von Materie: bei Gasen sind diese Effekte abhängig von der Wellenlänge λ der Strahlung („Strahlungsband“)… Das Strahlungsverhalten des Gasgemisches Luft ist nicht trivial zu bestimmen…und es kann auch kein gemittelter Emissionsgrad angegeben werden.“ [5]

Anders als bei Festkörpern und Flüssigkeiten ist der Emissionsgrad der IR-Gase keine Eigenschaft einer Oberfläche, sondern die eines Volumens. Dabei sind alle IR-aktiven Gasmoleküle, die sich in einem Luftpaket befinden, in einer bestimmten Art und Weise beteiligt. Dadurch sind die Emissionsgrade der Gase auch keine Konstanten, sondern von der Anzahl der beteiligten IR-aktiven Gasmoleküle abhänge Variablen (Abb. 1). Um dennoch die Strahlungsfähigkeit IR-aktiver Gase miteinander vergleichen zu können, habe ich einen molaren Emissionsgrad εm definiert. Es ist der Vergleich der IR-Strahlung von einem 1 mol (6,022 * 1023 Moleküle; Avogadro-Konstante) eines IR-aktiven Gases in einem Luftpaket mit der Strahlung eines Schwarzstrahlers. Da die IR-aktiven Gase als Linienstrahler nur ausgewählte Wellenlängen emittieren, sind ihre molaren Emissionsgrade εm deutlich kleiner als 1.
Weiter ist festzustellen, dass die IR-inaktiven Atmosphärengase, Stickstoff und Sauerstoff, Wärmestrahlung praktisch nicht streuen und auch nicht absorbieren. Die bekannte Streuung des Sonnenlichtes an den Luftmolekülen unserer Atmosphäre ist nur für das sichtbare, kurzwellige Licht relevant:
Der Streuquerschnitt σ der Rayleigh-Streuung ist proportional zur vierten Potenz der Frequenz der elektromagnetischen Welle…. Die frequenzabhängig unterschiedlich starke Streuung von Sonnenlicht an den Teilchen der Erdatmosphäre bewirkt das Himmelsblau am Tag, und die Morgenröte wie die Abendröte während der Dämmerung“. [6]
Ohne IR-aktive Gase (und ohne Aerosole) könnten Wärmestrahlen die Erd-Atmosphäre ungehindert passieren. Ein kleiner molarer Emissionsgrad εm bedeutet somit eine hohe Transparenz und ist der Grund, dass bei einer Strahlungsmessung IR-Gase und Hintergrund immer gemeinsam gemessen werden.

Zur Messung der Emissionsgrade wird die gleiche Apparatur (Abb. 2) und Prozedur verwendet, die bereits für die Messung der CO2-Strahlung vorgestellt wurde [7]. Im Wesentlichen geht es dabei um Wärmeübertragung von parallelen, geschwärzten Oberflächen für E = 1 (wenn ε1, ε2 = 1) mittels IR-Strahlung für die Josef Stefan Gl. 1 vorgeschlagen hatte [8].

E (Strahlungsaustauschgrad) ist hier der griechische Großbuchstabe Epsilon. Bitte nicht verwechseln mit E = Bestrahlungsstärke: „Die Bestrahlungsstärke E (engl.: irradiance, radiant flux density; auch Strahlungsstromdichte) ist der Begriff für die gesamte Leistung der eingehenden elektromagnetischen Energie, die auf eine Oberfläche trifft, bezogen auf die Größe der Fläche.“
Die Stefan Gleichung wurde experimentell abgeleitet und ist der Vorläufer des berühmten Stefan-Boltzmann-Gesetzes. Gl. 1 ist die theoretische Grundlage für den erdnahen „Treibhauseffekt“. Sie sagt aus, dass ein Körper nur dann Energie (Wärme) durch Strahlung
abgibt, wenn T1 > T2 ist. Das bedeutet, dass auch beim Strahlungstransport die Energie immer von „warm nach kalt“ übertragen wird. Ein Widerspruch zum II. Hauptsatzes der Thermodynamik liegt somit nicht vor. Der Begriff „Treibhauseffekt“ leitet sich von der ursprünglichen aber falschen Vorstellung ab, dass die unterschiedliche Durchlässigkeit von Glas für Sonnen- und Wärmestrahlen die Erwärmung eines Gewächshauses verursacht. Ich verwende diesen (irreführenden) Begriff im Sinne von Gl. 1 & 2 weil er sich eingebürgert hat.
Die durch IR-Strahlung übertragbare netto Strahlungsleistung P (Power) ist demnach nicht nur von der Temperatur der warmen Erd-Platte TE, sondern auch von der Temperatur der kalten Aerosol-Platte TA abhängig. Die IR-Strahlung der kalten Platte vermindert die Wärmeübertragung P (wenn TA > 0)und kann auch als Gegenstrahlung (eigentliche Ursache des erdnaher Treibhauseffektes) bezeichnet werden.
Diese harmlos klingende These ist eine fundamentale Kritik der Klimahysterie. Die Aerosol-Platte simuliert die Strahlungen von Wolken/Aerosolen. Auch ohne Treibhausgase würden Wolken/Aerosole einen Basis-Treibhauseffekt erzeugen. Die Wirkung der Treibhausgase ist letztlich nur eine geringe Verstärkung dieser allgegenwärtigen Hintergrundstrahlung.

Die elektrische Heizung der Erd-Platte (Wärmestromdichte Q/m2; im Folgenden nur als Heizung QE bezeichnet) und der Strahlungsverlust P sind gleich groß, da der warmen Erd-Platte genauso viel Energie (pro Zeiteinheit) zugeführt werden muss wie sie durch Strahlung verliert. Mechanische Wärmeströme werden durch die Konstruktion der Apparatur minimiert (Abb. 2) bzw. gehen als eine konstante Störung in einen Startwert ein.
Befindet sich zwischen Erd- und Aerosol-Platte ein IR-aktives Gas, kommt zur Gegenstrahlung der kalten Platte noch die Gegenstrahlung des IR-Gases hinzu. In der 3. Mitteilung wurde experimentell nachgewiesen, dass sich die Erd-Platte erwärmt, wenn bei konstanter Heizung QE IR-Gase zugesetzt werden [9]. Um die Strahlung der IR-Gase zu quantifizieren, wird nun nach jeder IR-Gas-Zugabe die Heizung QE für eine konstante Erd-Platten-Temperatur verringert. Aus den Veränderungen der Heizung QE werden die Emissionsgrade der IR-aktiven Gase berechnet. Allerdings muss zuvor noch die Strahlung der Seitenwand ermittelt werden, da sie die Wärmeübertragung beeinflusst. Hierzu wird vor Zugabe der IR-Gase die Heizung QE(0) als ein Startwert festgestellt und hieraus der Emissionsgrad der Seitenwand abgeleitet. Details zu diesen Rechnungen und Ableitungen sind in der 4. Mitteilung [7] ausführlich beschrieben, und eine Schritt für Schritt Anleitung befindet sich in Kap. 4. Der Treibhauseffekt der IR-Gase EGas(n) lässt sich für die Laborapparatur nach Gl. 2 berechnen. Dabei beschreibt EGas(n) die Bestrahlungsstärke der Erd-Platte in W/m2 durch ein IR-Gas mit der Vordergrund-Temperatur TV, der Hintergrund-Temperatur der Aerosol-Platte TH (beide in Kelvin) und einer Molmenge n (Anzahl der Mole).

εGas(n) sind die Emissionsgrade der unterschiedlichen IR-Gase, die nur noch von der Molmenge n abhängen (Abb. 1). Wird die Hintergrundstrahlung ignoriert (TH = 0), lässt sich mit Gl. 2 die theoretische Strahlung eines IR-aktiven Gases berechnen und bei TV = TH wird der Treibhauseffekt null.
Die Rechnungen beziehen sich auf die absolute Zahl der IR-Gas-Moleküle in einem wasserdampffreien Luftvolumen beliebiger Größe. Dabei wird vorausgesetzt, dass tatsächlich alle IR-Moleküle einen Beitrag zur Gegenstrahlung leisten. Bei sehr starken IR-Strahlern wie Freone/SF6 oder sehr langen Apparaturen könnte das problematisch sein, da hier schon nach einer gewissen Ausbreitungsstrecke (Volumentiefe) Sättigung eintritt. In diesen Fällen muss IR-Gas-Konzentration verringert werden.

In der Atmosphäre wird die Hintergrundstrahlung durch Wolken/Aerosole verursacht, wobei TH ihre Strahlungstemperatur ist. Da IR-Gase in der Regel eine höhere Temperatur als Wolken/Aerosole haben, führt ihre Anwesenheit zu einer Erhöhung der Gegenstrahlung (Gl. 2). Aber ob und wie sich dabei die Erd-Temperatur TE verändert ist eine ganz andere Frage, die von den örtlichen Gegebenheiten abhängt:
Bei einer warmen, trockenen Oberfläche (z.B. in einer Trockenwüste) würde CO2, besonders bei klarem Himmel, einen Anstieg der Erd-Temperatur TE verursachen, wie auch die Labor-Experimente gezeigt haben [9].
Wird auch die Luft durch den CO2-Treibhauseffekt erwärmt? Diese Frage ist nicht leicht zu beantworten und ist Gegenstand meiner aktuellen Untersuchungen. Wäre die CO2-Schicht sehr dünn und mittig in der Atmosphäre würde sich ihre Temperatur nicht ändern, denn die Schicht verliert Wärme (durch die CO2-Strahlung) aber gewinnt auch Wärme (durch die zusätzliche IR-Strahlung der erwärmten Erde). Der Treibhauseffekt würde unter solchen Bedingungen nur eine Erwärmung der Erde, aber nicht die der Luft bewirken! Nun ist CO2 aber keine dünne Schicht, sondern in der gesamten Atmosphäre vorhanden und zwar als ein Vermittler zwischen warmen und kalten Strahlern. Die Folge ist ein auf Strahlungsaustausch beruhender Temperatur-Gradient, wobei auf der warmen Seite (Erdnähe) die Temperatur ansteigt, auf der kalten Seite (Stratosphäre) aber sinkt. Letzteres ist m.E. im Bereich der CO2-Wellenlängen von Wettersatelliten (den sogenannten Ausstrahlungstrichtern bei den IR-Emissions-Spektren) bereits nachgewiesen. Bei der erdnahen Atmosphäre sollte sich der Gradient jedoch nicht bemerkbar machen, da hier die Temperaturen hauptsächlich von mechanischen Wärmeströmen, Luftdruck und Luftströmungen bestimmt werden.

Feuchtgebiete, Wälder oder Wasseroberflächen (⅔ der Erdoberfläche!) können auf die zusätzliche CO2-Strahlung mit verstärkter Verdunstung von Wasser reagieren und dadurch den Temperaturanstieg TE dämpfen. In diesen Fällen würde sich der Strahlungstransport P gemäß Gl. 1 verringern. Vermehrte Verdunstungswärme und Konvektion feuchter Luft könnten allerdings das Defizit ausgleichen. Dafür spricht, dass 60 % der Erdoberflächenwärme durch Evapotranspiration und nur 40 % durch Strahlung an die Atmosphäre abgeführt werden [10]. Sollte die zusätzliche Wasser-Verdunstung zu einem größeren Wolkenbedeckungsgrad führen, würde CO2 paradoxerweise sogar zu einer globalen Abkühlung wegen Zunahme der Wolkenalbedo beitragen (negative CO2-Wolken-Rückkopplung)!
In der kalten Antarktis, wo Luftschichten in großer Höhe wärmer als der Boden sein können, verursacht CO2, wie Satelliten festgestellt haben, eine Verstärkung der IR-Ausstrahlung an das Weltall, was zur Abkühlung des Südpols beiträgt.
Viele dieser angesprochenen Mechanismen scheinen mir z.Z. noch nicht ausreichend verstanden und untersucht. Angesichts dieser Komplexität bewerte ich die IR-Gase nur auf der Basis ihrer unbestreitbaren, messbaren IR-Strahlungen (in W/m2) und überlasse es zukünftigen Untersuchungen, hieraus eine Klimasensitivität (Temperaturanstieg in °C) abzuleiten.
Die Klimahysterie der Alarmisten beruht auf der Annahme, dass sich die Welt in einem sensiblen Gleichgewicht befindet, das durch kleinste Störungen unwiderruflich in eine Katastrophe mündet. Es zeigt sich jedoch, dass Systeme in Natur und Technik immer dann stabil und robust sind, wenn zu jeder Steuergröße ein Gegenspieler vorhanden ist (Sympathikus/Parasympathikus, Insulin/Glucagon, positive/negative Rückkopplung), wodurch ein Regelkreis entsteht. Schnelle und langfristige Regelkreise sollten auch auf der Erde existieren. Sie könnten eigenständig agieren oder sich mit planetaren Ursachen für Klimaschwankungen wie z.B. den Milankovitch‐Zyklen [11] überlagern. So ist auch ein langfristiger Wolkeneffekt als Antagonist zur Eisalbedo denkbar:
Bei einer Eiszeit verringern sich Wasserverdunstung und Aerosol-Konzentration (
Wasserdampf-Kondensationskeime!) durch Vereisung von Wasseroberflächen und durch Eis-Ablagerung auf den Kontinenten. Die Folge sollte ein Rückgang der Wolkenschicht und eine zunehmend größere Sonnenbestrahlung der Erdoberfläche sein, wodurch der Eispanzer langsam wieder auftauen kann. Bei einer Warmzeit ist es genau umgekehrt. Durch die Zunahme der Wolken wird die Sonnenstrahlung stärker reflektiert und verhindert eine extreme Erwärmung. Es wäre wünschenswert, wenn Klimatologen nach solchen oder ähnlichen Regelkreisen suchen würden, die erklären, warum sich die Erd-Temperatur, trotz erheblicher Schwankungen, immer wieder „normalisiert“ hat, was einem sensiblen Gleichgewicht widerspricht und auf ein robustes Klima-System hinweist.

Die Strahlung der IR-Gase ist in allen Richtungen gleich groß. Deswegen wird nicht nur die Gegen- sondern auch die Ausstrahlung (in Richtung Aerosol-Platte) von den IR-Gasen beeinflusst. Tatsächlich ließ sich eine Zunahme der Ausstrahlung experimentell nachweisen (Kap. 4). Hierzu wurde die Thermoelektrizität Pt von Peltier-Elemente gemessen, die sich auf der Aerosol-Platte befinden(Abb. 2). Allerdings ist dieser Effekt nicht so eindeutig wie die Gegenstrahlung, die mit der Heizung QE nachgewiesen wird. In der Umgebung der Aerosol-Platte gibt es (anders als bei der Erd-Platte) einen großen Temperatur-Gradienten von 30 K zwischen Tp4 und TA, wodurch die Peltier-Elemente auch durch die Wärmeleitung der Gasphase beeinflusst werden. Für die These einer zusätzlichen IR-Strahlung durch IR-Gase spricht, dass bei allen Versuchen eine Zunahme der Pt-Spannung beobachtet wird. Das ist insofern bemerkenswert, da nur Methan eine höhere, die anderen IR-Gase aber eine kleinere spezifische Wärmeleitung als Luft haben, was hier eine Abnahme der Pt-Spannung verursachen müsste.
Eine Übertragung dieses Ausstrahlungs-Effektes auf die Erd-Atmosphäre ist nicht zulässig. Die Erd-Platte hat im Experiment (anders als die Erdoberfläche) nur einen kleinen Einfluss auf die Ausstrahlung.
Nach Gl. 2 verursachen IR-Gase einen Treibhauseffekt (Zunahme der Gegenstrahlung), wenn ihre Temperatur TV höher als die des Hintergrundes TH ist. Diese Aussage ist nur gültig, wenn sich beide Strahlungsquellen auf die gleiche Strahlungsfläche beziehen. Für die Gegenstrahlung trifft das zu, da Aerosol-Platte und Gasphase den gleichen Querschnitt haben und die Erd-Platte nur ein Sensor für die Gegenstrahlung ist. Im Falle der Ausstrahlung ist die Erd-Platte aber Strahlungsquelle, wobei Erd-Platte und Gasphase (fast) die gleiche Temperatur haben und der Ausstrahlungseffekt null sein sollte. Da die Gasphase aber eine größere Strahlungsfläche als die Erd-Platte hat, kommt es zu einer Zunahme der Ausstrahlung nach Zugabe von IR-Gasen.

  1. Emissionsgrade der atmosphärischen Spurengase

Abbildung 3 zeigt die Emissionsgrade εGas(n) von Methan, CO2 und Lachgas im Molmengenbereich n von 0 bis 1 mol. Die Beziehung zwischen Emissionsgrad εGas und Molmenge n hat keinen einheitlichen Verlauf. Bei sehr kleinen Molmengen wird ein steiler, linearer Anstieg registriert, der bei größeren Mengen in eine logarithmische Progression übergeht. Bei noch größeren Molmengen tritt zusätzlich noch ein Konzentrationseffekt auf. Dieses komplexe Verhalten führt dazu, dass mit drei verschiedenen Formeln Y1, Y2 und Y3 die Beziehung zwischen Emissionsgrad εGas(n) und Molmenge n beschrieben werden. Zur besseren Übersicht werden die 3 Progressionskurven in den Farben Blau, Rot und Grün gezeichnet.

Formel Y1, der blaue Bereich bis 0,12 mol: Schon geringe Änderung der Molmenge führen zu einem starken, linearen Anstieg des Emissionsgrades εGas(n). Es wird vermutet, dass hier die IR-Strahlung hauptsächlich von der zentralen Vibrationsbande der IR-Gase, dem sogenannten Q-Zweig verursacht wird (Abb. 4). Da es sich um eine sehr starke Bande handelt, führt die Erhöhung der Molmenge schnell zu einer Sättigung [12].
Formel Y2, der rote Bereich bis 0,5 mol: Die weitere Zunahme der Emissionsgrade εGas(n) kann nur noch durch die wesentlich kleineren Rotationsbanden, den R- (abnehmend) und P-(zunehmend) Zweigen (branch), erfolgen (Abb. 4). Der rote Bereich und sein weiterer, theoretischer Verlauf gemäß Formel Y2 (schwarze Linie bis 1,0 mol) charakterisiert die maximal mögliche Strahlung der atmosphärischen Spurengase bei hohen Molmengen. Y2 ist somit die Rechenbasis für die CO2-Strahlungen. Auch die molaren Emissionsgrade εm für n = 1 mol werden mit Y2 berechnet (Tab. 1). Danach ist Methan ein deutlich schwächerer IR-Strahler als CO2.
Formel Y3, der grüne Bereich oberhalb von 1 Vol.-%: Ab einer Konzentration von 1 Vol.-% tritt ein sprunghafter Anstieg der Emissionsgrade εGas(n) auf, der die logarithmische Progression zu höheren Werten verschiebt. Dieser Konzentrations-Effekt wird auch in der IR-Spektroskopie beobachtet und wird dort als Bandenverbreiterung bezeichnet [13], [7]. Für die Beurteilung des atmosphärischen Treibhauseffektes spielt die Bandenverbreiterung keine Rolle, da die Atmosphären-Konzentrationen von Methan, CO2 und Lachgas viel kleiner als 1 Vol.-% (10.000 ppm) sind. Werden jedoch bei Labormessungen die IR-Gase bei Konzentrationen > 1 Vol.-% untersucht, werden unrealistisch hohe Werte erhalten, die nicht die Atmosphäre widerspiegeln, was (auch bei der Auswertung von HITRAN-Spektren) zu beachten ist.

Wasserdampf kann aus physikalischen Gründen (Gefrierpunkt = 0 °C) mit der Apparatur nicht untersucht werden. In der Atmosphäre führt Wasserdampf aufgrund seiner vielen Absorptionslinien und seiner sehr großen Menge (bis zu 100-mal größer als CO2) zu einem weiteren Wirkungsverlust der Spurengase. Eine 1:1 Übertragung der Labor-Experimente ist deshalb bestenfalls auf Trockenwüsten zulässig. Hierzu könnte man einwenden, dass mit der Apparatur nur die Emissionsgrade εGas(n) der IR-aktiven Gase ermitteln werden und eine Übertragung auf die Atmosphäre unzulässig ist. M.E. sollte es aber grundsätzlich möglich sein, aus diesen Laborergebnissen gewisse Rückschlüsse zu ziehen. Der Strahlungstransport P in der erdnahen Atmosphäre unterliegt den gleichen physikalischen Gesetzen von Vorder- und Hintergrundstrahlung und die Apparatur modelliert diese Mechanismen in einem bestimmten Maßstab (Kap. 3). Allerdings muss man sich auch den Einschränkungen bewusst sein, die beim Klima der Erde eine Rolle spielen, wie beispielsweise der erdferne Treibhauseffekt, der Druckgradient der Atmosphäre, die Erdrotation oder die bereits erwähnte Evapotranspiration, die von der Apparatur nicht nachgebildet werden.

  1. Emissionsgrade der gesättigten Kohlenwasserstoffe

Da mir für die vorherigen Untersuchungen kein reines Methan zur Verfügung stand, wurde an seiner Stelle Erdgas eingesetzt. Der Gasversorger gibt im Sicherheitsdatenblatt einen Methangehalt von 80-99 % und als mögliche Verunreinigungen Ethan (0-12 %) und Propan (0-4 %) an. Man könnte nun argumentieren, dass der geringe molare Methan-Emissionsgrad εm möglicherweise durch die Verunreinigungen im Erdgas verursacht wird. Um diesem Einwand nachzugehen, wurden neben Methan auch noch Propan und nButan untersucht (Abb. 5). Diese drei Substanzen gehören derselben chemischen Familie, den Alkanen, an. Sie sind homologe Verbindungen, die sich nur durch weitere CH2-Gruppen unterscheiden und deshalb bei den Emissionsgraden εGas(n) einen Trend ergeben sollten.
Die gemessenen Emissionsgrade εGas(n) der drei Alkane zeigen erneut eine doppelte Abhängigkeit sowohl von der Molmenge n als auch von der Konzentration (Y1: Blau, Y2: Rot und Y3: Grün). Auffällig ist eine Verlängerung des blauen, linearen Y1-Bereiches, von 0,12 auf 0,23 mol. Eine größere Anzahl von Vibrationsschwingungen im Q-Zweig könnte hierfür die Ursache sein.
Die molaren Emissionsgrade εm wurden mit der Y2-Formel für n = 1 mol berechnet. Trägt man die εm Werte über die Anzahl der C-Atome auf, zeigt sich, dass die Strahlungsfähigkeit der Alkane von ihrer Kettenlänge abhängig ist: εm = 0,0367 ∙ ln(x)+0,0291 (x = Anzahl der C-Atome) (Abb. 6). Mit dieser Formel lässt sich auch der molare Emissionsgrad für das fehlende Ethan berechnen. Die Kurve zeigt eine logarithmische Progression, die Methan als den Strahler mit dem kleinesten molaren Emissionsgrad εm ausweist. Wenn also Erdgas mit Ethan/Propan verunreinigt sein sollte, wäre dadurch der molare Emissionsgrad εm des reinen Methans sogar noch etwas kleiner als 0,029.

  1. Treibhauspotential – eine Mogelpackung?

Wikipedia: „Das (relative) Treibhauspotential (englisch: greenhouse warming potential, GWP) oder CO2-Äquivalent einer chemischen Verbindung ist eine Maßzahl für ihren relativen Beitrag zum Treibhauseffekt, also ihre mittlere Erwärmungswirkung der Erdatmosphäre über einen bestimmten Zeitraum (in der Regel 100 Jahre). Sie gibt damit an, wie viel eine bestimmte Masse eines Treibhausgases im Vergleich zur gleichen Menge CO2 zur globalen Erwärmung beiträgt. Beispielsweise beträgt das CO2-Äquivalent für Methan bei einem Zeithorizont von 100 Jahren 28: Das bedeutet, dass ein Kilogramm Methan innerhalb der ersten 100 Jahre nach der Freisetzung 28-mal so stark zum Treibhauseffekt beiträgt wie ein Kilogramm CO2. Bei Distickstoffmonoxid beträgt dieser Wert 265“ [14].
Wie bitte? Hatten wir nicht gerade die geringere Strahlungsfähigkeit des Methans im Vergleich zum CO2 festgestellt? Hat IPCC getrickst? Ja eindeutig! Das Treibhauspotential ist ein typisches Beispiel für einen Apfel- und Birnenvergleich. Zunächst zur Masseneinheit Kilogramm. Die IR-Strahlung eines Gases leitet sich nun mal von der der Molmenge (mol) und nicht vom Kilogramm ab. Ein Kilogramm CO2 (1000/44,01) entsprechen 22,7 mol CO2, während 1 kg Methan (1000/16,04) 62,3 mol sind, also 2,7-mal mehr als beim CO2. Das ist allerdings nur ein kleiner Trick, der auch nur beim Methan richtig funktioniert. Der eigentliche Trick ist, dass die Emissionsgrade εGas(n) Variablen sind, die extrem von ihren Molmengen n abhängen, wie in allen gezeigten Grafiken zu sehen ist. Das atmosphärische CO2 beendet bereits bei rund 100 ppm den steilen Y1 Anstieg und folgt nun einer flachen logarithmischen Weiterentwicklung im „roten“ Y2-Bereich [15]. Demgegenüber verbleiben Methan (1,8 ppm) und Lachgas (0,3 ppm) im „blauen“ Y1 Bereich, mit relativ großen Strahlungszunahmen bei geringen Mol-Änderungen. Die Strahlungen der Spurengasen folgen also völlig unterschiedlichen Gesetzen (Y1 vs. Y2). Ein Apfel- und Birnen- Vergleich ist nicht Wissenschaft, sondern Populismus und Panikmache wie folgende Überschlagsrechnungen zeigen.

Der für die Strahlung maßgebliche Emissionsgrad εGas(n) hängt von der Anzahl der IR-Gas-Moleküle n unter einer Wolkenschicht ab und ist bei Methan/Lachgas sehr viel kleiner als beim CO2. Tab. 4 zeigt die Strahlungsanstieg von Methan, Lachgas und CO2 von 1750 bis 2018.
Die Berechnung der atmosphärischen CO2-Strahlung wurde bereits in der 4. Mitteilung vorgestellt [7]. Es stellte sich heraus, dass Luftschichten oberhalb von 1.000 m den CO2-Treibhauseffekt nicht mehr erhöhen. Diese Grenze wurde nun aus Vergleichsgründen für alle Spurengase zugrunde gelegt. Die Rechnungen erfolgen in drei Schritten:
Im ersten Schritt wird die Molmenge n aus der IR-Gas-Konzentration errechnet wie in Kap. 4 angegeben. Aus der Molmenge n werden die Emissionsgarde
εGas(n) gemäß Tab. 3 ermittelt. Dabei werden für Methan und Lachgas die Y1-Formeln und für CO2, wegen seinen hohen Konzentration, die Y2-Formel verwendet. Mit Gl. 2 wird dann die Gegenstrahlung EGas(n) der einzelnen Spurengase berechnet.
Diese Rechnungen sind aus verschiedenen Gründen nur grobe Näherungen: So wurde die Hintergrund-Temperatur TH der Wolken/Aerosole nur geschätzt, für die Vordergrund-Temperatur TV Durchschnittswerte verwendet und die Wasserdampf-Strahlung nicht berücksichtigt. Die gefundenen Strahlungswerte EGas(n) können somit nach oben oder unten von den tatsächlichen Werten abweichen. Dennoch wurden mit diesen sehr einfachen Rechnungen erstaunliche gute Übereinstimmungen mit Strahlungstransfer-Rechnungen erzielt, die H. Harde [16] mit modifizierten Schwarzschild-Gleichungen durchgeführt hatte und die zu folgenden Kernaussagen führten:
„Kontinuierliche Prozesse wandeln in der Atmosphäre Wärme in Strahlung und Strahlung in Wärme um.
CO2 allein könnte 24,1 % der IR-Strahlung der Erde absorbieren. In Gegenwart anderer IR-Gase, hauptsächlich Wasserdampf, verringert sich dieser Wert auf 4,6 %. Die zentrale CO2-Absorptionsbande ist bereits nach 1 m Ausbreitungslänge gesättigt und eine weitere Absorptionszunahme durch R- und P-Seitenbänder endet bei rund 1 km. Bei klarem Himmel würde eine Verdopplung von CO2 die Gesamtabsorption um 1,2 % erhöhen, aber unter Wolken wird der CO2-Beitrag unter 1 % gesenkt.“
Eine weitere Übereinstimmung findet sich in einer vereinfachten IPCC-Formel, die für
CO2 (400 ppm) eine Strahlungsdichte von 32,1 W/m2 errechnet. Dieser Wert stimmt sehr gut mit 30,7 W/m2 überein, wenn die CO2-Strahlung nach Gl. 2 ohne Hintergrundstrahlung (TH = 0) ermittelt wird [7].
Die guten Übereinstimmungen sind eine gegenseitige Bestätigung von theoretischen Berechnungen und experimentell gefunden Werten und sie erhärten den Verdacht, dass das IPCC von zu großen
CO2-Strahlungswerten ausgeht und die Wirkungen von Wasserdampf und Wolken/Aerosole vernachlässigt.

Beim Lachgas (N2O) lässt sich kaum eine Veränderung von EN2O(n) ablesen, womit sich eine weitere Diskussion erübrigt. Die Methanstrahlung ECH4 erhöhte sich um 0,40 W/m2 (Faktor 2,3), während die CO2-Strahlung ECO2 um 0,55 W/m2 (Faktor 1,07) zunahm. Mit dem Trick der leichten Vervielfachung kleiner Zahlen lässt sich jetzt trefflich ein hohes Methan-Treibhauspotential postulieren. Geht man aber zu den absoluten Zahlen über, erzeugen Methan und Lachgas zusammen 1 W/m2, das ist nur ein Bruchteil der CO2-Strahlung von 9,5 W/m2. Und wenn man jetzt noch die gesamte atmosphärische Gegenstrahlung von 333 W/m2 [10] zugrunde legt, ist die Summe aller drei Spurengase mit rund 11 W/m2 nur ein Zwerg innerhalb der erdnahen IR-Strahlungen. Da sollte schon die Frage erlaubt sein, welchen Einfluss die restlichen 322 W/m2 haben, die durch Wolken, Wasserdampf und Aerosole verursacht werden und wie sich ihr Anteil seit 1750 entwickelt hat?

Nun gut, Kleinvieh macht auch Mist, und so könnte der CO2-Anstieg sogar ein Glücksfall für die Menschheit sein. Eiszeiten sind unvermeidlich und die nächste sogar überfällig. Bei der letzten Vereisung sank die CO2-Konzentration auf 180 ppm, nur 30 ppm von Ernährungsnot bzw. Erstickungstod der Pflanzenwelt entfernt und das wäre dann wirklich das Ende, wenn man P. Moore und J. Lovelock glauben mag [17]:
„Vor 140 Millionen Jahren hatte die Erde noch eine
CO2-Konzentration von 2.500 ppm. Offensichtlich war diese Konzentration kein Nachteil und erst recht keine Katastrophe, denn es gab eine üppige Flora und die größten jemals auf der Erde lebenden Landtieren. Seitdem hat sich die CO2-Konzentration kontinuierlich verringert, hauptsächlich durch die Bildung von Kalkstein und Kreide (CaCO3) und hat vor 18.000 Jahren das o.g. Minimum erreicht. Anschließend haben Erd-Erwärmung und industrielle Revolution die CO2-Konzentration wieder auf 400 ppm erhöht. So können sich die Pflanzen heute über 850 Gt Kohlenstoff in der Atmosphäre freuen, aber die ferne Zukunft ist düster. Planktonische Muscheln, Korallen und Schalentiere wandeln zwar langsam aber unaufhörlich CO2 in CaCO3 um, ein Nettoverlust von 14.000 Gt Kohlenstoff in den letzten 550 Millionen Jahren. Wie lässt sich dieser lebensgefährdende Trend aufhalten? Vulkanismus als wichtigste CO2-Quelle in der Vergangenheit verliert zunehmend an Bedeutung und die fossilen Brennstoffe sind nun mal endlich. Langfristig wäre demnach CO2-Mangel und nicht der geringe CO2-Treibhauseffekt eine Bedrohung. So gesehen sind Energiewende und ‚Fridays For Future‘ der falsche Weg“.

Und was passiert mit dem Methan in der Atmosphäre? Nun es wird unter dem Einfluss von Sonnenlicht und Sauerstoff zu CO2 oxidiert und hat nach Wikipedia eine sehr kurze Verweildauer von 9–15 Jahren [1]. Ich kann nicht beurteilen, ob diese Angabe korrekt ist oder genauso falsch wie die CO2-Verweildauer, die vom IPCC mit 50-200 Jahren angegeben wird (oder sogar tausendende von Jahren nach S. Solomon) [18]. Die CO2-Verweildauer leitet sich von einem dynamischen System, dem Kohlenstoffzyklus ab. Dabei sind die Geschwindigkeiten der CO2-Freisetzung (Emission) und der CO2-Senkung (Absorption) die entscheidenden Kriterien. Die Verweildauer ist ein zentraler Punkt der Klimahysterie und soll vor Beginn der industriellen Entwicklung 3 Jahre betragen haben. In dieser Zeit sollen Emissions- und Absorptions-Geschwindigkeit gleich groß gewesen sein. Es wird nun angenommen, dass der CO2-Anstieg seit 1750 fast ausschließlich anthropogenen Ursprungs sei und die Senkung dieses zusätzlichen CO2 viel langsamer verläuft als im sogenannten natürlichen Kreislauf. H. Harde widerspricht der Hypothese der ungleichen Geschwindigkeiten und geht von einem leichten Anstieg der Verweildauer (4 Jahre) aus [19]. Seine Thesen und nachvollziehbaren Rechnungen stützen sich auf der Annahme, dass nicht der Mensch sondern die Erd-Temperatur die Geschwindigkeit beider Prozesse, Emission und Absorption, mit nur leicht unterschiedlichen Koeffizienten beeinflusst. Und auch der anthropogene Anteil an der CO2-Erhöhung ist mit 15 % (17 ppm von 113 ppm seit 1750) deutlich geringer als vom IPCC angenommen.

Die angeblich lange IPCC-CO2-Verweildauer ist allerdings ein Eigentor, denn dadurch ist die Methan-Verweildauer von nur 9-15 Jahren kein zusätzliches Argument für eine Klimagefährdung durch Methan.

  1. Experimentelle Daten

Vor Durchführung eines Experimentes wird die Innenluft der Apparatur 24 Stunden über feste Natronlauge mit einer Geschwindigkeit von 1 l/min zur Entfernung von Wasserdampf und CO2 geleitet. Aus Sicherheitsgründen (Erhöhen der unteren Explosionsgrenze) wird im Falle von Propan und nButan der Sauerstoffgehalt durch Zumischung von 30 % Argon auf rund 14 % gesenkt. Nach jeder Zugabe eines IR-aktiven Gases wird die Spannung für die Heizfolie unter der Erd-Platte (Abb. 2) solange verringert, bis die Start-Temperatur der Erd-Platte von 16,09 °C gerade wieder erreicht ist. Da das System von Heizung und Temperatur-Messung eine gewisse Trägheit besitzt, wird das Mittel von zwei Messungen im Abstand von 0,01 bis 0,02 Volt gebildet, die beide 16,09 °C ergeben. Die Versuche wurden 2 bis 5-mal wiederholt und als Durchschnitt ausgewertet.
Die Erd-Platte hat einen Durchmesser von 16,7 cm und eine Fläche AE= 219,04 cm2. Zur Ermittlung der Wärmestromdichte QE wird die gemessene Stromleistung (Spannung mal Stromstärke) durch Multiplikation mit 45,654 auf einen Quadratmeter umgerechnet. Der Abstand zwischen Erd- und Aerosol-Platte beträgt 1,11 m. Die Rechnungen beziehen sich auf ein fiktives Luft-Volumen der Apparatur von 1,11 m3. Die Molmenge n wird aus der allgemeinen Gasgleichung n = p∙V/R∙TLuft abgeleitet. Dabei ist p der Luftdruck in hPa, R ist die Gaskonstante (8,31448 J/mol∙K), V ist der Volumenanteil des IR-Gases am fiktiven Volumen von 1,11 m3 in Liter (aus der Konzentration Vol.-%) und TLuft ist die Durchschnitts-Temperatur der Luftschicht von Tp1-Tp4 in Kelvin.
Im ersten Schritt wird die theoretische Wärmeübertragung E zwischen Erd- und Aerosol-Platte analog zu Gl. 1 ETheo = σ ∙ A ∙ (TE4-TA4) als Schwarzkörper-Strahlung berechnet (σ = 5,670367∙10-8 W/(m2 ∙ K4), A = 1 m2, T = Temperatur in Kelvin). Die Gegenstrahlung wird gemeinsam von Aerosol-Platte und Seitenwand erzeugt. Das Verhältnis von QE(0)/ETheo = εA(0) ist der effektive Emissionsgrad der Aerosol-Platte (sein Anteil an der Gegenstrahlung) ohne IR-Gase. Mit diesem ersten Messwert wird nach εW =1- εA(0) der Emissionsgrad der Seitenwand εW als eine Art Tageswert bestimmt. Nach der gleichen Prozedur wird nach jeder Zugabe des IR-Gases aus dem Verhältnis QE(n)/ETheo = εA(n) und εW+Gas =1- εA(n)der gemeinsame Emissionsgrad von Wand + IR-Gas errechnet und hiervon εW als eine Konstante abgezogen, wodurch εGas(n) erhalten wird.
Mit der Abkürzung Pt(n) wird die Spannung von 5 in Reihe geschalteten Peltier-Elementen angegeben. Während sich die Heizung QE(0) sehr gut reproduzieren lässt, unterliegt die Spannungsmessung Pt(0) einer stärker abweichenden Tagesform. Allerdings zeigt sich innerhalb einer Messung stets ein stetiger Anstieg der Pt(n) Werte ohne „Ausreißer“.

    1. Methan Emissionsgrade

    1. CO2 Emissionsgrade

    1. Lachgas Emissionsgrade

    1. Propan Emissionsgrade

    1. Butan Emissionsgrade

Literaturverzeichnis

[1] „Methan,“ 15 März 2019. [Online]. Available: https://de.wikipedia.org/wiki/Methan .
[2] „Distickstoffmonoxid,“ 9 April 2019. [Online]. Available: https://de.wikipedia.org/wiki/Distickstoffmonoxid .
[3] „Emissionsgrad,“ 27 Juni 2018. [Online]. Available: https://de.wikipedia.org/wiki/Emissionsgrad .
[4] „Emissionsgradtabelle,“ [Online]. Available: https://static-int.testo.com/media/b5/14/6481a245e502/Emissivity-table-DE.pdf .
[5] „Gasstrahlung,“ 15 Oktober 2018. [Online]. Available: https://de.wikipedia.org/wiki/Gasstrahlung .
[6] „Rayleigh-Streuung,“ März 20 2019. [Online]. Available: https://de.wikipedia.org/wiki/Rayleigh-Streuung .
[7] M. Schnell, „Die erdnahe CO2-Strahlung,“ 27 Jan. 2019. [Online]. Available: https://www.eike-klima-energie.eu/2019/01/27/experimentelle-verifikation-des-treibhauseffektes-4-mitteilung-die-erdnahe-co2-strahlung/ .
[8] „Strahlungsaustausch,“ 05 Aug. 2018. [Online]. Available: https://de.wikipedia.org/wiki/Strahlungsaustausch .
[9] M. Schnell, „ Labor-Experimente zur Demonstration des CO2-Treibhauseffektes,“ 17 Juli 2018. [Online]. Available: https://www.eike-klima-energie.eu/2018/07/17/experimentelle-verifikation-des-treibhauseffektes-2/ .
[10] K. Trenberth et al., „EARTH’S GLOBAL ENERGY BUDGET,“ 19 Juli 2008. [Online]. Available: https://www.klimamanifest-von-heiligenroth.de/wp/wp-content/uploads/2016/09/Trenberth_Jones_Treibhauseffekt_TFK_bams_2009_15Grad_390Watt_SBG_gelbMark.pdf .
[11] „Milanković-Zyklen,“ 13 04 2019. [Online]. Available: https://de.wikipedia.org/wiki/Milankovi%C4%87-Zyklen .
[12] H. Hug, „Der anthropogene Treibhauseffekt – eine spektroskopische Geringfügigkeit,“ 20 August 2012. [Online]. Available: https://www.eike-klima-energie.eu/2012/08/20/der-anthropogene-treibhauseffekt-eine-spektroskopische-geringfuegigkeit/ .
[13] H. Harde et al., „Lineshape Transition of Collision Broadened Lines,“ Physical Review Letters, pp. 1308-1310, 20 Feb. 1995.
[14] „Treibhauspotential,“ 4 April 2019. [Online]. Available: https://de.wikipedia.org/wiki/Treibhauspotential .
[15] M. Schnell, „Experimentelle Verifizierung des Treibhauseffektes,“ 12. Internationale Klima- und Energiekonferenz (IKEK-12), München, 2018.
[16] H. Harde, „Radiation and Heat Transfer in the Atmosphere: A Comprehensive Approach on a Molecular Basis,“ 2013. [Online]. Available: http://dx.doi.org/10.1155/2013/503727 .
[17] P. Moore, „Die positiven Auswirkungen der menschlichen CO2-Emissionen,“ 12 06 2019. [Online]. Available: https://www.eike-klima-energie.eu/2019/06/12/die-positiven-auswirkungen-der-menschlichen-co2-emissionen-auf-das-ueberleben-des-lebens-auf-der-erde/ .
[18] „Verweildauer von CO2: Henne oder Ei?,“ 3 Dez. 2013. [Online]. Available: https://www.eike-klima-energie.eu/2013/12/03/zur-verweildauer-von-co2-henne-oder-ei/ .
[19] H. Harde, „What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations,“ Earth Sciences, Bd. 8/3, pp. 139-159, 2019.