Medienversagen: wirre Ausreden für das Versagen des Windkraft-Sozialismus

Als vor einigen Monaten der erwartbare Zusammenbruch des sozialistischen Venezuela nicht mehr zu verheimlichen war, kamen die ultralinken Quantitätsjournalisten Deutschlands sofort mit grotesken Erklärungen um die Ecke – es liege am Ölreichtum des südamerikanischen Landes. (Seltsam, daß die Saudis nicht….)

Schon der erwartbare Zusammenbruch der DDR und der Sowjetunion wurde von Indoktrinierten mit westlicher Agententätigkeit und/oder gezieltem Angriff durch kapitalistischen Konsum entschuldigt.

Wie der geneigte liberale EIKE-Leser weiß, sind frei erfundene Ökokatastrophen wie Waldsterben oder Klimakollaps ein Trick von Marxisten, ihren geliebten Staatssozialismus über die Hintertür wieder einzuführen, um langfristig Billionen Steuergelder ohne Arbeit in die eigene Tasche zu leiten. Klappt aber dummerweise nicht, wenn die Energie-Infrastruktur zu früh schlapp macht und zu viele Bürger merken, daß ihnen bald venezolanische Verhältnisse drohen. Wir Deutschen sind schon mehrfach knapp am Netzzusammenbruch vorbeigeschrammt; nun muß die grüne Presse reagieren. Relotius online versucht es allen Ernstes mit Kapitalismuskritik:

„Elektrizität wurde knapp, Nachbarländer starteten Hilfsaktionen, die Preise explodierten. Ursache könnten Spekulationen von Händlern sein.“

Worauf basiert die blitzgescheite Analyse des Spiegel-Schreibers? Er bestätigt immerhin, daß am 6., 12. und 25. Juni weniger Strom erzeugt wurde als benötigt. Die Lücke musste wieder einmal von unseren genervten Nachbarländern gestopft werden (wahrscheinlich von französischen oder tschechischen Alt-Kernkraftwerken). Schuld sei aber natürlich nicht die deutsche Energiewende-Politik mit ihrem unbrauchbaren Zappelstrom, sondern „Spekulanten“, also Händler, die „Versorgungslücken im Regelenergiemarkt zunächst bewußt nicht ausgeglichen hätten, um später höhere Gewinne einzustreichen“. Die Theorie stammt übrigens im Original von Next Kraftwerke, also einem Anbieter, der vielleicht die Konkurrenz schlecht machen will.

Dabei würde ich noch gar nicht mal grundsätzlich ausschließen, daß Schwarze Schafe den Klimasozialismus für ihre Zwecke missbrauchen. Im Gegenteil, kaltblütiger Egoismus und Tricksereien von hinterhältigen Opportunisten sind in JEDEM sozialistischen System der Regelfall. Deswegen hungern die Venezolaner ja.

Die Next Kraftwerke– Leute seien laut Relotius der Meinung, daß die „Rahmenbedingungen des Regelenergiemarktes“ nicht ausreichend seien, um Manipulationen entgegenzuwirken. Ob ein bißchen Symptomdoktorei etwas verbessern kann?

Ich verstehe den Spiegel-Artikel daher eher als psychologische Vorbereitung auf die bald kommenden flächendeckenden Stromausfälle. Den grün-wählenden urbanen wohlhabenden Spiegel-Lesern soll schon einmal der Schuldige dafür präsentiert werden, wenn Licht, Internet, Wasser und Heizung tagelang ausfallen: Es ist der Kapitalismus! Dem können wir nur entgegenwirken, indem wir, wie der schlaue Kevin von der SPD zum Glück gerade erst vorschlug, Firmen „vergesellschaften“, und damit gierige Besitzer entmachten. Gute Idee, oder?

Peter Grimm hat auf der Achse ähnliche Gedanken: Sündenbock-Suche beim Strom-Notstand.
Überall diese Libertären……

Lesetipp für Interessierte:

Netzregelverbund: „Mit dem Begriff Netzregelverbund (NRV) wird ein Konzept bezeichnet, das das Gleichgewicht von Verbrauch und Erzeugung elektrischer Leistung (Systembilanz) in untereinander verbundenen Stromnetzen optimiert, indem die gleichzeitige Aktivierung von positiver und negativer Regelleistung vermieden wird, sofern es die Netzkapazitäten und die Netzsicherheit zulassen.“




Ein kleines Licht am Ende des Tunnels? Anti-Greta-Bewegung in Schweden

Gar nicht klein, aber fein: Auf Facebook hat Peder Blohm Bokenheim aus dem schwedischen Borås in den letzten Monaten eine rund 650.000 Mitglieder zählende Gruppe namens „Benzinaufstand 2.0“ gegründet, im Original „Bensin upproret 2.0“. Diese Aktivisten, wohl meist ethnische Schweden und vom Land, wehren sich ähnlich wie die Gelbwestenkollegen aus Frankreich gegen hohe Kraftstoffsteuern, die mäßig verdienende Werktätige, die weite Strecken pendeln müssen, besonders treffen. Es fanden bereits in Stockholm und anderen größeren Städten friedliche Demonstrationen mit einigen Hundert Teilnehmern statt.

Da sich die Land-Schweden nicht im Wirkungskreis parareligiöser Lehrer und Kulturschaffender (wie Malena Ernman) befinden, glauben sie wohl auch nicht an die Untergangsprophetien der Großstädter. Wußten Sie, daß an den Universitäten in Schweden Bewältigungskurse gegen „Klimaangst“ angeboten werden? Medizinisch soll sogar schon eine neue Krankheit namens „Klimadepression“ definiert worden seien. Ich hoffe, letzteres ist dann eine Folge der „Flugscham“, die heuchlerische Vielflieger aus der Ökobourgeoisie betrifft……aber die schämen sich für gar nichts.

Schweden war für Jahrzehnte DAS Vorzeigeland der europäischen Sozialdemokratie. Unter dem Schlagwort „Folkhemmet“ (Volksheim) wurde seit den 30ern ein durchaus ernstzunehmendes Streben nach sozialer Angleichung im Königreich zur Leitlinie der schwedischen Politik, das zu den skandinavischen Nachbarn Finnland und Norwegen, und sogar rüber auf den Kontinent nach Dänemark ausstrahlte. Unsere fröhlichen dänischen Nachbarn duzen sich seit 1945 sogar untereinander (die Königin aber natürlich nicht).

Die Zeiten scheinen vorüber zu sein. Die städtisch-akademischen Eliten in Schweden, denen die Nivellierung wohl nie so recht gefallen hat, verbrüdern sich wie in Deutschland mit den gleichartigen Eliten anderer westlicher Länder mittels gemeinsamer, frei erfundener Symbole wie Multikultisierung, Genderismus und natürlich Klimawahn.

Neben der symbolischen Abgrenzung der linken Klima-Elite von der rechten Plebs sorgen explodierende Immobilienpreise und damit verbunden die Verschuldung der Hausbesitzer für Zündstoff. Adé, Land von Pippilotta Viktualia Rollgardina Pfefferminz Efraimstochter Langstrumpf und Karlsson auf dem Dach.

Analog zu Grethel Thunfisch von den Klimalügnern haben auch die schwedischen Protestler und Gelbwesten ein bekanntes Gesicht, die ein Jahr jüngere Izabella Nilsson Jarvandi, Tochter schwedisch-persischer Eltern, die allerdings nicht die Jesuskind-Ikonografie Gretas bedient, sondern wie eine junge Frau aussieht, die im Gegensatz zur gemanagten und durch-choreografierten Greta anscheinend nicht angeleitet wird.

Wie stehen die Chancen im grünen Wunderland Europas für die Gelbwesten-Dissidenten? Laut Umfrage der Tageszeitung „Dagens Nyheter“ sind die Wähler der bürgerlichen Parteien der Ansicht, die Spritpreise seien zu hoch. Aber immerhin 50 % der Wähler linker Parteien denken das auch noch.

 

 

 




Wozu (gegen­teilige) Messwerte betrachten? Den Klima­wandel fühlt doch jeder

Bayern erGRÜNt

Mittlerweile rief die erste Bayerische Stadt (Erlangen) den Klimanotstand aus. Und auch der neue Ministerpräsident Söder hat – wohl durch Betrachten des Landtags-Wahlergebnisses – festgestellt, dass Bayern besonders (schlimm) vom Klimawandel getroffen sei. Anstatt sich besonnen zu informieren, dreht auch er nun ebenfalls durch – beziehungsweise wurde gleich populistisch wie sein Vorgänger – und fordert, die Kohlekraftwerke noch schneller als geplant vom Netz zu nehmen und durch teure, wie auch problematische Gaskraftwerke zu ersetzen [19]. Bleibt nur noch abzuwarten, wann auch ihn wie seinen Vorgänger, ebenfalls eine paulinische Erweckung überfällt und auch er die wegweisende, unfehlbare, große Führerfigur, Frau Merkel, bedingungslos anzuhimmeln beginnt und er ihr ebenfalls bescheinigt, sie wäre „einzigartig kompetent“ [22]. Einen „Kompetenzinhalt“ hat er schon übernommen: Bayern wird grüner (gemacht), als es die GRÜNEN fordern.

Da bei Problemen die Obrigkeit sich den Staat zuallererst vor Ansprüchen der Bürger schützt, wurde vorsichtshalber allerdings jegliche Unterstützung der Bürger für Klima-Schadensfälle gestrichen. Konsequenz: Da inzwischen alles nur noch die eine Ursache hat (die zum Himmel schreiende, falsche das gewüschte Ergebnis liefernde „Expertise“ eines Münchner Professors zur 5 m hohen Flutwelle in Simbach belegt es überdeutlich [20]), gibt es für Bürger vom Staat in solchen Fällen überhaupt keine mehr.

Der Bayerische Rundfunk hat sich des Themas seit Längerem angenommen und bringt regelmäßig Klimawandel-Propagandavideos [4] [5], um den Bürgern einzubläuen zu zeigen, wie wichtig und richtig das ist.

Reklamiert ein Bürger die „Reportagequalität“, behauptet gar, einiges wäre stark überzeichnet, würde ziemlich wahrscheinlich sogar nicht stimmen, weil recherchierbare Daten falsche Aussagen belegen, wird er belehrt, dass so etwas bei der überragenden Qualität der Öffentlichen gar nicht möglich ist und Kritik damit prinzipiell und ohne Nachprüfung unbegründet sei [3].

Nicht immer kommt es, wie bei den vom WDR/ARTE ganz offen als reine Klimawandel-Propaganda erstellten Reportagen so brachial herüber, obwohl auch der BR eine eigene Klima-Propagandasendereihe „fährt“, um die Bürger auf die richtige Doktrin einzustimmen:
BR Fernsehen, UNKRAUT 17.06.2019: Klimaschutz: Wann wacht die Politik auf?
Die Themen: Erderwärmung: Wie steht Bayern in Sachen Emissionen da? | Wald in Gefahr: Wie der Klimawandel unsere Bäume bedroht

In den meisten Fällen erfolgt es allerdings ganz subtil, dafür aber sicher nicht weniger wirkungsvoll. Deshalb die Gegendarstellung zu einem nicht schlimmen, aber eben typischem Beispiel.

Immer häufiger Extremniederschlag am Chiemsee

Im Chiemgau gibt es „seit ewigen Zeiten“ Überschwemmungen. Der BR berichtet darüber. Wo Überschwemmungen sind, kann der Klimawandel nicht weit sein. Denn wer sonst könnte solche verursachen? Nun, ganz so schlimm wird es nicht dargestellt. Überschwemmungen gab es – das wird zugestanden – auch früher schon. Aber: Es wird – wer hätte schon etwas anderes vermutet – immer schlimmer und schlimmer.

Bild 1 BR-Reportage zu Überschwemmungen im Chiemgau: BR Mediathek

In der Reportage interviewt der Sprecher einen dafür zuständigen „Staatsbediensteten“. Dieser ist aber penetrant nicht bereit, in die ihm wiederholt in den Mund gelegte Klimawandelhysterie einzustimmen.
Was macht man in einer solchen Reportage, wenn gerade das „Wichtigste“ noch fehlt? Man sucht so lange nach Personen, bis sich eine findet, die es besser – das heißt: richtig – weiß und vor der Kamera auch sagt. Solche, die die Natur täglich hautnah erleben, sind dafür prädestiniert, zum Beispiel aus der Landwirtschaft. Und ein solcher fährt im Video auch zufällig auf seinem Traktor vorbei und er weiß, was der „Staatsbedienstete“ sich weigert zu sagen:
Untermahlt von der bei solchen Sequenzen erforderlichen, düsteren und unheilschwangeren Musik kann er berichten:
Sprecher: … aber Landwirt … findet, dass sich etwas verändert hat.
Landwirt: … des is ja etz so, dass gerade die Starkregen wie mas die letzten Jahre etz ghabt hat, dass die scho extrem mehr wern … wie`s weiter wird, glaub i, woaß koaner ...

Diese Art der „Beweisführung“ durch Erleben, anstelle durch Daten, ist beim Klimawandel inzwischen so etwas wie ein Goldstandard [6]. Wobei die Anmerkung erlaubt sei, dass dies in der Klimafolgen-„Wissenschaft“ bereits als niveauvoll betrachtet werden muss. Denn eigentlich gilt es als ausreichender Beleg, eine mehr oder weniger honorige Person – gerne auch gut geschulte, einheimische Aktivisten – vor einer Strandkulisse ins Wasser zu stellen, um zum Beispiel den schlimmen Pegelanstieg zu zeigen [16] [24] [25]. Viele NGOs – auch Greenpeace usw. [6]– belegen auf diese Weise, was sie benötigen und niemand (außer dem Autor und anderen Wenigen) nimmt daran Anstoß.

Was der Landwirt fühlt, reicht dem BR

Nun anbei eine Wiederholung des immer gleichen Spiels: Was fühlt die selbsternannte Fachperson und berichtet der BR und was sagen dazu die (leicht recherchierbaren) Daten?
Wiederholung: Die befragte „Fachperson“ fühlt: … dass gerade die Starkregen in den letzten Jahren extrem mehr werden …

Was sagen Wetterdaten

Leider sind keine Daten von DWD-Wetterstation direkt am Chiemsee (mit abrufbaren Langzeitdaten) beim DWD frei zugänglich hinterlegt, aber darum herum finden sich welche.
Zuerst vom ebenfalls oft und schlimm von Überschwemmungen getroffenen Rosenheim, ganz in der Nähe:

Bild 2 Rosenheim Tagesniederschlag 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 3 Rosenheim 2-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 4 Rosenheim 3-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 5 Rosenheim 7-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Sichtungsergebnis der Stationsdaten
In keinem der drei Niederschlagssummen ist seit 1950 irgendwo eine Zunahme des Starkregens zu sehen; und schon gar nicht „in den letzten Jahren extrem mehr“. Seit der letzten, mittleren Niederschlagsspitze in 06.2013, also vor sechs Jahren hat der Extremniederschlag in allen Summen stark abgenommen.

Nun noch die vergleichende Auswertung vom Einzugsgebiet der Tiroler Ache (Haupt-Chiemseezufluss), bei Reit im Winkl.

Bild 6 Reit im Winkl Tagesniederschlag 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 7 Reit im Winkl 2-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 8 Reit im Winkl 7-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Reit im Winkl zeigt die gleichen Niederschlagsbilder wie Rosenheim. Auf keinen Fall eine Zunahme in den letzten Jahren, sondern ebenfalls eine stetige Abnahme.

Zur Abrundung nun noch Garmisch.

Bild 9 Garmisch Tagesniederschlag 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 10 Garmisch 2-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 11 Garmisch 7-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Garmisch hat einen leicht abweichenden Verlauf, zeigt aber auch auf keinen Fall die berichteten „in den letzten Jahren extrem mehr“ Niederschlag. Der Tagesniederschlag (Bild 9) zeigt nur zusätzlich (wieder) die extreme Niederschlagsvarianz und wie solche vollkommen ohne irgendeine Vorwarnung oder Trend „aus dem Nichts“ auftauchen.

Die Niederschlagsverläufe der Chiemsee-Umgebung in Richtung der Berge zeigen: Der Bauer liegt mit seiner Aussage im Video daneben. Gefühlt ist eben nicht auch gewusst. Man könnte fast vermuten, dass der „Staatsbedienstete“ die Messdaten kennt und deshalb im Video so vorsichtig agiert.

Und das gilt nicht nur für Oberbayern, sondern zieht sich durch ganz Deutschland [7] [8].
Aber man braucht kein Hellseher zu sein, um zu ahnen, welche Aussage beim fernsehenden Publikum haften bleiben wird. Dies dank einer BR-Redaktion, welche die Wahrheit gar nicht wissen will.

Was weiß die Bayerische Regierung

Deren zuständiges Ministerium recherchiert, monitort und controllt inzwischen selbstverständlich auch den Klimawandel. Und darüber werden viele Berichte geschrieben. Einen gibt es vom Bayerischen Landesamt für Umwelt mit dem Titel:
[2] Hochwasser im Spiegel der Zeit
Daraus einige Angaben und Daten.

Zuerst nicht von Oberbayern, sondern vom Main die Hochwasserabflussmengen. Was EIKE-Leser bereits wissen, nehmen – seit es dank dem sich von der schlimmen, kleinen Eiszeit wieder etwas erwärmendem Klima – (nicht nur) am Main, die Hochwasser stetig ab.

Bild 12 [2] Main bei Würzburg. Jahres-Höchstabflüsse 1826 – 2007. Trendlinie vom Autor zugefügt

Noch besser lässt es sich an den Pegelständen sehen: So wenig Hochwasser wie in den letzten Jahrzehnten war noch nie. Trotzdem wurde 2013 bei Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überschwemmungsgebiet zugewiesen hatte. Doch der Schuldige war damals laut einer Zeitung natürlich der Klimawandel.

Bild 13 Main Historische Pegelstände Würzburg. 2013 wurde das Afrikafestival „wegen des Klimawandels, der immer höhere Hochwasser zur Folge hat“ (Artikel in einer Lokalzeitung) überschwemmt. Grafik vom Autor anhand der Pegelangaben erstellt

Nun wieder näher Richtung Oberbayern, Abflussmengen der Donau. Diese zeigen extreme Spitzen, aber ebenfalls keine Zunahme. Und alles, was kürzlich war, war in der (kälteren) Vergangenheit ebenfalls schon.

Bild 14 [2] Donau unterhalb Passau. Jahres-Hochstabflüsse 1861 – 2006, gemessen am Pegel Achleiten.

Anbei auch überregionale Fluß-Pegelbilder, um zu zeigen, wie die Auswirkungen solcher Höchstabflüsse konkret aussehen, vor allem aber auch um zu zeigen, dass die hohen und höchsten Flutpegel vor allem in der vor-industriellen, kalten Vergangenheit auftraten:

Bild 15 Pegel Main Aschaffenburg. Quelle: Wasserwirtschaftsamt Aschaffenburg, Homepage

Was man an den Pegelbildern sofort sieht: schlimme Hochwasser waren gerade und vorwiegend in der angeblich „natürlichen“, freundlichen, herbeigesehnten, vorindustriell kalten Zeit“ regelmäßige und häufige Ereignisse.

Ergänzend dazu Listungen aus der Schrift des Bayerischen Landesamtes für Umwelt [2]:
Isar bei München:
Überliefert sind große Hochwasser mit starken Verwüstungen aus den Jahren:
1400, 1401 , 1404, 1418, 1462, 1463, 1477, 1485 und 1491, 1589, 1624, 1633. 1729 standen das ganze Lehel und die Au unter Wasser. 1739 wiederum, aber viel höher – bis Thalkirchen bildete die Isar einen See. Weitere Hochwasser gab es 1778, 1783, 1786 drei, 1795 und 1802. 1807 riss das Hochwasser ein Achtel Grund der Au fort. 1813 ertranken hundert Schaulustige, als das Hochwasser die Ludwigsbrücke zum Einstürzen brachte. Weitere Hochwasser waren 1865, 1873 – Einsturz der Max-Joseph-Brücke – und 1875.
1899 riss ein Jahrhunderthochwasser die Prinzregentenbrücke und die MaxJoseph-Brücke ein – nur sechs Jahre
nach ihrer Fertigstellung.
Im 20. Jahrhundert suchten München große Hochwasser
1924, 1930, 1940, 1954 und 1999 (Pfingsthochwasser) heim. Das Augusthochwasser 2005 ist mit den großen Hochwassern der vergangenen Jahrhunderte vergleichbar.

Berchtesgaden
Im Berchtesgadener Talkessel sind viele historische Hochwässer dokumentiert. Besonders große Hochwässer herrschten 1269, 1386, 1403, im Juli 1508 und Oktober 1567, 1569, 1572, 1598, 1618/19, 1622, 1649, 1661, 1734, 1736, 1747, 1759, 1764, 1786, 1787, 1807, 1830, 1864, 1876, 1897, 1899, 1918 und 1920
1931
wurde in Schellenberg eine Pegelanlage eingerichtet. Nach den Pegelaufzeichnungen sind die Hochwässer 1954 und 1959 eindeutig mit Hochwasserspitzen von 3,50 m bzw. 3,59 m nachgewiesen. 1965 ließ man den Pegel in Schellenberg wieder auf und nahm einen neuen Pegel in Berchtesgaden in Betrieb.
Markante Wasserstände zeigen sich hier
1977, 1995, 2002 und 2005. 2002 wurde der Höchstwert von 2,95 m erreicht.

Expertenwissen

Trotzdem – beziehungsweise nicht unerwartet – kommt das Bayerischen Landesamtes für Umwelt nach Analyse der Niederschläge seit 1950 in der Schrift zu dem Ergebnis, dass Niederschlags-Extremereignisse in Oberbayern durch den Klimawandel bedingt zunehmen würden, schreibt aber gleich dazu, dass beim Niederschlag eine kurzfristige Betrachtung gar nicht aussagefähig ist: [2] … Ein Blick in die Hochwasserchronik der Stadt Passau zeigt aber, dass das Wetter und die Abflussbildung als hoch komplexes System mit vielen sich gegenseitig beeinflussenden Faktoren noch nie zur statistischen Mittelwertbildung geneigt haben. Nach Jahrzehnten mit nur moderat erhöhten Sommerabflüssen folgten immer wieder im Abstand von nur wenigen Jahren mehrere große, Schaden bringende Hochwasser hintereinander …

Um die Konfusion noch deutlicher zu machen, zeigt eine Auswertung der Schrift: [13] Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete, des gleichen, Bayerischen Landesamtes für Umwelt, dass sich keine Signifikanz einer Zunahme zeigt, eher eine Abnahme [14]. Bestätigt wird dies durch eine Schrift des KLIWA-Projektes A 1.1.3 „Trenduntersuchungen extremer Niederschlagsereignisse in Baden-Württemberg und Bayern“ [19]:
… Im hydrologischen Winterhalbjahr zeigen die Starkniederschlagshöhen des Zeitraums 1931–2000 deutliche Zunahmen. Diese Zunahmen verstärken sich vereinzelt noch mit zunehmender Dauer (von 1 Tag bis 10 Tage) der Starkniederschläge. Regionale Schwerpunkte sind in Bayern die fränkischen Landesteile sowie Teile des Bayerischen Walds, in BadenWürttemberg der Schwarzwald sowie der Nordosten des Landes.
Im hydrologischen Sommerhalbjahr ist hingegen kein einheitlicher Trend bei den Starkniederschlägen festzustellen. Regionen mit einer Zunahme (z. B. Ostrand des Schwarzwaldes, Donautal, Teile Mittelfrankens) stehen große Gebiete mit einer Abnahme (z. B. Unterfranken, Südost-Bayern und Teile des Alpenvorlandes) bei insgesamt geringer Signifikanz gegenüber …

Dass das Überschwemmungsjahr 2013 ein Extrem war, zeigen die Bilder der Messstation von Reit im Winkl und das Bild der Niederschlagssummen vom 26.06.2013. Hier muss nochmals gesagt werden, dass der DWD für die Bürger nicht alle Daten zur Verfügung stellt. Viele der in der Schrift [15] gelisteten Messstation dieser Gegend finden sich im öffentlich zugänglichen DWD-Archiv nicht.

Bevor zur Betrachtung der Vergangenheit geschritten wird, anbei noch ein Bild, welches die Problematik von Niederschlags-Extremereignissen verdeutlicht: Sie sind sehr lokal begrenzt. Es hängt von der Lage weniger Messstationen ab, ob sie überhaupt erfasst und richtig gemessen werden, weshalb man es inzwischen mit Wetterradar macht.
Zwangsweise führt die Erfassung mit Wetterradar als Folge der höheren Abdeckung zu einer „schlimmen Erhöhung“ der Ereigniszahlen, also einem „unbestechlichen“ Beleg für den bereits wirkenden Klimawandel. Der DWD nutzt das auch entsprechend aus, und darf den Personal und Kontrollaufwand auszubauen.

Bild 24 [15] Lage der Starkniederschläge Ende Juli 2013

Unnatürlich“ ist unser Wetter nur, wenn man die kältere Vergangenheit weglässt

Wie gezeigt wurde, „erklärt“ das Bayerische Landesamt für Umwelt, die Hochwasser in Oberbayern würden zunehmen, obwohl alte – und vor allem auch historische Daten und Pegelmarkierungen – eindringlich darauf hinweisen, wie oft und schlimmer solche gerade in der kälteren Vergangenheit gewütet haben. Dem Amt reicht jedoch eine Zählung von Ereignissen seit etwa 1950 (ungefähre Verfügbarkeit brauchbarer Messdaten) aus. Ein Zeitraum, der für Niederschlag wenig Relevanz hat, wie man nicht nur anhand der vorherigen und in einem früheren Artikel gezeigten Niederschlagsmessreihen sofort sehen kann [17].

Auch die Aussagen in den Informationsschriften über Zeiten vor 1950 belegen es deutlich:
… Obwohl die Donau zu den hochwasserreichsten Flüssen Europas zählt, ist selten das ganze Einzugsgebiet gleichzeitig von Hochwasser betroffen. Nur das Hochwasser von 1845 und die Tauflut von 1882/83 bewirkten Überschwemmungen auf fast der gesamten Fläche Aus alten Schriften geht hervor, dass auch das Hochwasser vom 28. Dezember 1882 bis 3. Januar 1883 beinahe das ganze Einzugsgebiet der bayerischen Donau umfasste. Es wird von einem Katastrophenhochwasser gesprochen.

… Verantwortlich für dieses extreme Hochwasser vom 31. Juli bis 6. August 1924 waren lang anhaltende starke Regenfälle von rund 40 Stunden, die das südliche und Teile des nördlichen Einzugsgebietes der bayerischen Donau von West nach Ost durchzogen.
Besonders betroffen war der Chiemgau. Hier fielen in 30 Stunden 300 mm Regen.
In allen anderen Fällen traten und treten Hochwasserschwerpunkte auf, zum Beispiel in Donauwörth, Regensburg oder Passau. Die Donau bis oberhalb Passau ist besonders im Winter prädestiniert für Hochwasser. Die größten wurden in den Jahren
1845, 1850, 1862 und 1882 beobachtet. Damals erreichte die Donau noch höhere Wasserstände als im März 1988.

Wie durch geschickte Statistik aus Datenmaterial das „Gewünschte“ „herausgelesen“ wird, hat der Autor ebenfalls bereits einmal aufgezeigt. Auch darin wurde übrigens eine „klimawandel-bedingte Zunahme“ durch eine zu kurze – und fehlende, historische – Betrachtung herausgelesen:
EIKE 22.08.2017: [18] Verschiebt der Klimawandel Europas Hochwässer dramatisch

Dabei gibt es auch sonst genügend Anzeichen für eine andere Aussage:
Eine Studie (zitiert aus [9]) wertete die Hochwasser-Häufigkeiten im Alpenvorland aus. Diese kam zu dem Schluss: Ausgerechnet als es kurz vor Beginn der Industrialisierung am kältesten war, waren nach dieser Studie die Hochwasser am häufigsten.

Bild 25 Darstellung der Hochwasserhäufigkeit im bayerischen Alpenvorland [9]

Geradezu ketzerisch ist die weitere Aussage in dieser Studie: [9] „Die Hochwasserentwicklung zwischen dem 17. Jahrhundert und 1930 korreliert mit der Entwicklung der Sonnenflecken. Und das hoch signifikant“
Wie widersprüchlich dazu die Angaben in den offiziellen Publikationen sind, zeigt auch die die folgende Feststellung:
[19] … Als Fazit bleibt festzustellen, dass eine regionalspezifische Zunahme der Starkniederschlagshöhen am deutlichsten in den Wintermonaten Oktober – April statistisch nachweisbar ist … während im Sommer weniger extreme Niederschläge auftraten

Bild 26 [19] Verteilung von Veränderungen an Niederschlagshöhen >20 mm/Tag in Baden-Württemberg/Bayern

Wie man im Bild 26 sieht, fällt ausgerechnet das laut dem BR durch eine Zunahme besonders betroffene Oberbayern mit einer Abnahme im Sommerhalbjahr auf.

Macht aber nichts. Wie es „sein muss“, lässt sich simulieren:
[2] Ausmaß des künftigen Klimawandels
… Eine Verschiebung statistischer Mittelwerte und Verteilungen der Klimakenngrößen bedeutet auch eine Zunahme der Häufigkeit bisheriger Extremwerte. Eine Zunahme von Trockenperioden, aber auch von Starkniederschlägen, wird zwangsläufig eine Veränderung des Abflussgeschehens unserer Gewässer bewirken …

Die in die Zukunft gerichtete Fragestellung, ob infolge des Klimawandels allgemein und in welchem Ausmaß mit einer Verschärfung des Hochwassergeschehens zu rechnen sein wird, ist mit Simulationsrechnungen untersucht worden. Dazu mussten zunächst die Szenarienergebnisse einer globalen Klimamodellierung über Regionalisierungsverfahren für einen nutzbaren Maßstab berechnet und daraus künftig mögliche Abflussganglinien simuliert und statistisch bewertet werden.
Die Berechnungsergebnisse lassen eine deutliche Zunahme der mittleren Hochwasserabflüsse, aber auch seltenerer Hochwasser, erwarten. Auch wenn die Auswertungen und die Modellannahmen mit Unsicherheiten behaftet sind, bestätigen verschiedene regionale Modellberechnungen diese Aussage. Allein aus Vorsorgegesichtspunkten ist daher von einer Hochwasserverschärfung durch die Klimaveränderung für die Zukunft auszugehen.

Nochmals Daten zur Gegend um den Chiemsee

Im folgenden Bild 27 zeigt sich wieder die Variabilität, welche oft auch nach 100 Jahren Trend plötzlich ausreißt, ohne den langzeit-Trend zu stören, beziehungsweise, ob es der Beginn einer Änderung des Langzeittrends ist, weiß man vielleicht in 100 Jahren, niemals aber anhand einer der üblichen, kurzfristigen Analysen.

Bild 27 [15] Mangfall: Höchstes Hochwasser seit 1899. Trendlinien vom Autor zugefügt

Bild 28 [15] Jahreshöchststände Chiemsee seit 1888. Trendlinien vom Autor zugefügt

Bild 29 [15] Jahreshöchststände Tegernsee seit 1895. Trendlinien vom Autor zugefügt

Bildunterschrift: Auch am Tegernsee war der Wasserstand der höchste seit 1899. Damals wurde ein Scheitel von 287 cm erreicht.

Ergebnis
Die Niederschlagsverläufe der Messstationen zeigen bei der Langzeitbetrachtung keinen steigenden Trend.

Freud und Leid hängen nicht von der CO2-Vermeidung ab

Simbach ist wohl das bisher extremste Beispiel einer Gemeinde, welche für CO2-Vermeidung zur Rettung der Welt zwar einen Klimaaward erhielt, wichtige Maßnahmen, um ihre Bürger zu schützen jedoch unterließ [20]. Die Strafe war furchtbar.

Nürnberg machte es vor über 100 Jahren nach der Flut von 1909 wie folgt: [2] Bereits 1910 begann man mit der Planung einer Flutüberleitung in der Altstadt. Wegen der Widerstände wurde diese zu den Akten gelegt. Dann zerstörte der 2. Weltkrieg die Altstadt fast vollständig. Nun war es möglich, die Planung doch umzusetzen. 1962 war die Umsetzung fertig. Seitdem gab es in Nürnberg keine Überflutung mehr.

Das bedeutet aber nicht, dass es allgemein akzeptiert würde. Was früher für die Bürge katsstophal war, gilt heute als „beglückend natürlich“ und gut, weil man die grausamen Auswirkungen nicht erlebt hat:
[2] … Heute werden jedoch die Begradigung der Pegnitz, der technische Uferverbau mit Beton und Stahlträgern sowie der Verlust von Flussauen als Mängel empfunden …

Rosenheim in Oberbayern hatte ebenfalls das Glück der Geschichte: Ihr (Teile davon) schützender Damm wurde 2012, gerade ein Jahr vor der sonst unweigerlich folgenden Überflutung der Altstadt fertig:

Manche können sich kaum vorstellen, wie extrem Städte auch in Deutschland direkt in Überflutungsgebieten siedeln. Das ist schon fast so, wie in Japan in Tsunami-gefährdeten Gebieten, oder den Südsee-Atollen, wo die neuen Häuser nicht mehr wie früher auf Stelzen gebaut werden, und sich die Bewohner nun beim Westen über das Wasser im Wohnzimmer beklagen.

Bild 32 Überflutungsgefährdetes Gebiet von Rosenheim. Das im Bild 33 gezeigte Überschwemmungsgebiet Oberwöhr vom Autor gekennzeichnet. Quelle: LfU Bayern, Hochwasserkarten

Und so sieht es trotz Dämmen aus, wenn das seit Jahrhunderten regelmäßig flutende Wasser wiederkommt:

Noch weiter zurück in die Vergangenheit

Es gibt Studien, die den Versuch wagen, Niederschläge der Vergangenheit zu ermitteln. Im folgenden Bild hat eine Studie drei Rekonstruktionen zusammengefasst.
Neben dem, dass sich die Rekonstruktionen zeitweise widersprechen – was die Probleme solcher Rekonstruktionsversuche überdeutlich aufzeigt -, zeigen alle trotzdem eines: Das aktuelle Wetter ist nicht entfernt extrem, „noch nie so gewesen“, oder gar schlimmer geworden.

Bild 34 [10] Niederschlagsverläufe Norddeutschland. Grenzlinien vom Autor zugefügt

Parodie am Rande: Hilft eine Zunahme der Überschwemmungen* den Biobauern?

Man könnte es fast meinen, wenn man liest, dass Hochwasser einst erwünscht, weil notwendig waren (der im Video interviewte „Staatsbedienstete“ spricht dieses Thema ebenfalls an):
[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit
Die Landwirtschaft strebte nur den Schutz vor schadbringenden Hochwassern im Sommer an, die Winterhochwasser dagegen, mit ihrer düngenden Wirkung, waren sogar erwünscht … Nach den Hochwasserereignissen um 1920 war durch die Zunahme des Schadenspotenzials in den Überschwemmungsgebieten ein größeres Schutzbedürfnis entstanden. Nun waren durch die aufkommende Verwendung von Kunstdünger in der Landwirtschaft die Winterhochwasser trotz ihrer düngenden Wirkung ebenfalls unerwünscht.

Das Klima hat zwischenzeitlich diesem, sicher über viele Jahrtausende bestehenden Wunsch nachgegeben, und den Niederschlag im Winter etwas erhöht, dafür im Sommer verringert.

Bild 35 Deutschland, Sommerniederschlag Anomalie. Quelle: DWD Viewer

Bild 36 Deutschland, Winterniederschlag Anomalie. Quelle: DWD Viewer

Bild 37 Deutschland, Jahresniederschlag Anomalie. Quelle: DWD Viewer

Dank der zwischenzeitlich entwickelten, modernen Agrartechnik allerdings zu spät, somit zur falschen Zeit. Außer man denkt GRÜN und will sowieso die moderne, erfolgreiche Landwirtschaft abschaffen. Dann muss man wegen dem durch die hohen Verluste des Bioanbaus enormen, zusätzlichem Platzbedarf auch wieder überschwemmungs-gedüngte Flussauen nutzen.

Es kann den inzwischen in Flussauen siedelnden Bewohnern also noch gehen wie den Autofahrern: Sie werden aus ihren Gebieten einfach vertrieben, weil man diese zur geforderten Ausweitung der Bio-Landwirtschaftsfläche benötigt. Da (auch fast entschädigungslose) Enteignung inzwischen wieder hoffähig geworden ist, wird einem solchen, GRÜNEN Wunsch keine der etablierten Parteien etwas dagegen setzen.

Trocknet unsere Heimat jetzt aus?

Diese Frage stellt unsere Agrarministerin, Frau Klöckner (Studium: Politikwissenschaft, katholische Theologie und Pädagogik) laut dem FOCUS: „Agrarministerin Klöckner über die Folgen der Hitze“.
Wer keine Ahnung hat, kann ja mindestens Fragen (in den Raum) stellen. Einfacher wäre es gewesen, die DWD-Daten (Bilder 35 – 38) anzusehen (dauert ca. eine Minute) und die Antwort bis zum Jahr 2100 zu erhalten. Diese ist eindeutig: Nein. Zumindest aufgrund der Daten aktuell und der Vergangenheit, erhärtet anhand der Simulationen (sofern man solchen „Glauben“ schenkt).
Das ist unseren Minister*innen (und hier auch dem FOCUS) aber schon seit Längerem für das kärgliche Gehalt (und Pensions-Anwartschaft) wohl nicht mehr zuzumuten: Und ihrem Agrar-Minsterium fehlen ersatzweise wohl geeignete, externe Berater, die so etwas „Kompliziertes“ schaffen könnten.

Bild 38 Deutschland, Jahresniederschlag absolut mit „Vorschau“ zum Jahr 2100. Quelle: DWD Viewer

oQuellen

[1] BR Reportagevideo: Chiemgau im Wandel – Hochwasser und Zombiebäume

[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit

[3] EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert

[4] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[5] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[6] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[7] EIKE 04.06.2018: Nun überschwemmt der Klimawandel bereits unsere Städte. Alternativ: Hat Deutschland kein Geld mehr, um sich gegen normale (Un-)Wetter zu schützen?

[8] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[9] Uni Augsburg, Dr. O. Böhm, Publizierung: Das Hochwasser und die Sonnenflecken

Studie: Changes of regional climate variability in central Europe during the past 250 years

http://link.springer.com/article/10.1140%2Fepjp%2Fi2012-12054-6

[10] tobias scharnweber at al.: Removing the no-analogue bias in modern accelerated tree growth leads to stronger medieval drought

[11] Hochwassernachrichtendienst Bayern, Pegel Staudach

[12] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[13] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[14] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[15] Wasserwirtschafsamt Rosenheim (Homepage), Schrift: Das Hochwasser vom Juni 2013 Dokumentation

[16] EIKE 19. Juni 2019: Tuvalu versinkt mal wieder – nicht. UNO Generalsekretär posiert für das Time Magazin

[17] EIKE 03.06.2018: Früher war es schlimmes Wetter, heute macht das Gleiche mit Sicherheit der Klimawandel

[18] EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch

[19] LUBW KLIWA-Projekt A 1.1.3: Langzeitverhalten der Starkniederschläge in Baden-Württemberg und Bayern
Tagesschau 22.06.2019: Deutsche Klimaziele Söder will Kohleausstieg schon 2030

[20] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[21] EIKE: Klimagaga: Heißzeitkatastrophe im Berliner Grundwasser

[22] Die Welt 11.05.2019: „Einzigartig kompetent“ Seehofer lobt Merkel: „Sie ist in dieser Regierung die Beste“

[23] MSN 27.06.2019: Hitzewelle 2019: Mehrere Tote, neue Temperatur-Rekorde und die Aussichten

[24] YouTube Video: Wetterexperte Stefan Rahmstorf: „Wir verlieren die Kontrolle über das Klimasystem“

[25] YouTube Video, Volker Quaschning: Ist Kohlendioxid wirklich ein Klimakiller?




Zeitliche Auflösung und Hockey­schläger

Abbildung 1a: Seismische Wellenlänge vs. Geschwindigkeit für dominante Frequenzen von 10, 25, 50 und 100 Hz (SEG Wiki)

Dünnere Schichten können erkannt, aber nicht aufgelöst werden. Gleiches gilt für normale Verwerfungen. Falls die vertikale Auflösung mindestens λ/4 beträgt, kann die Verwerfung aufgelöst und eine genaue Schätzung aufgrund der seismischen Daten vorgenommen werden. Falls die Auflösung geringer ist, kann man bestenfalls erkennen, dass eine Verwerfung vorhanden ist.

Abbildung 1b: Seismisches Abbild einer normalen Verwerfung bei λ/16, λ/8, λ/4, λ/2 and λ. (SEG Wiki) [Hinweis: Auch im Original ist die Graphik nicht deutlicher!]

Wenn man geologische und geophysikalische Daten integriert, unterteilen wir den Bohrkern nicht einfach in ein seismisches Profil. Wir konvertieren die Bohrkerne in ein synthetisches Seismogramm. Dies wird auf höchst effektive Weise erreicht mittels Schall- und Dichte-Messungen [sonic and density logs].

Abbildung 2: Synthetisches Seismogramm (AAPG Wiki).

Die Schall- und Dichte-Messungen werden herangezogen, um akustische Impedanz und eine Serie von Reflektions-Koeffizienten (RC) zu berechnen. Der RC ist verbunden mit einer kleinen seismischen Welle, oftmals extrahiert aus den seismischen Daten nahe des Bohrlochs. Die synthetischen seismischen Spuren (3 Paneele zur Rechten), können dann direkt verglichen werden mit dem seismischen Profil. Der Unterschied in der Auflösung ist ziemlich groß. Das Intervall von Trog zu Trog im seismischen Impuls unten liegt bei etwa 150 Metern.

Abbildung 3: schematischer Vergleich eines Bohrkerns mit einem seismischen Impuls mit einer Wellenlänge von 150 m

Was hat das nun mit Klima-„Wissenschaft“ zu tun?

Die Signaltheorie [?] und die Prinzipien der Bearbeitung von Signalen sind auf alle Signale anwendbar, nicht nur auf seismische Daten. Ein Signal ist eine zeitlich variable Abfolge von Zahlen. Fast alle Rekonstruktionen von Temperatur, Kohlendioxid und Meeresspiegel werden mittels vieler der gleichen Datenverarbeitungs-Verfahren wie beim Verarbeiten seismischer Daten erstellt. Dekonvolution ist besonders unentbehrlich bei der Erstellung von Kohlendioxid-Chronologien aus Eisbohrkernen. Manchmal werden die Signal-Verarbeitungsverfahren ordnungsgemäß durchgeführt. Van Hoof et al. (2005) zeigten, dass die CO2-Daten aus Eisbohrkernen repräsentieren ein über Jahrhunderte und Jahrtausende gleitendes Mittel von CO2-Niveaus in der Vergangenheit. Im Wesentlichen wurde ein synthetisches Seismogramm erzeugt aus Stomata-Chronologien und mit dem Eisbohrkern in Zusammenhang gestellt.

Abbildung 4: Graphik A zeigt eine Häufigkeitskurve aus Stomata-Daten. Graphik B zeigt den Eisbohrkern D47 aus der Antarktis. Die gestrichelte Linie in Graphik B ist der „synthetische“ Eisbohrkern, erzeugt mittels der Stomata-Häufigkeitskurve (Van Hoof et al. 2005)

Aus meiner geologischen Perspektive sind die meisten Klima-„Hockeyschläger“ das Ergebnis unsachgemäßer Integration von instrumentellen Daten mit hoher Auflösung (wie in Bohrkernen) und weniger hoch aufgelöster Proxydaten (wie bei der Reflektion seismischer Daten). Viele dieser Hockeyschläger scheinen das Ergebnis einer nachlässigen, wenn nicht sogar unverantwortlichen Missachtung grundlegender Prinzipien der Signalverarbeitung zu sein.

Hockeyschläger bei der Temperatur-Rekonstruktion

Abbildung 5: „Mike’s Nature Trick“. Ältere Daten stehen links.

Eine der ungeheuerlichsten Verstöße gegen diese Prinzipien ist die Erzeugung von Klima-„Hockeyschlägern“ mittels Variationen von „Mike’s Nature Trick“.

Nach dem Klimagate-Skandal führte die Penn State [= Pennsylvania State University] eine „Untersuchung“ von Mike’s Nature Trick durch. Die Weißwäsche seitens Penn State war grotesk:

Nach sorgfältiger Bewertung aller Beweise und relevanter Unterlagen kommt das Untersuchungs-Komitee zu dem Ergebnis, dass es keine glaubwürdigen Beweise dafür gibt, dass Dr. Mann jemals versucht oder daran teilgenommen hat, direkt oder indirekt, Maßnahmen durchzuführen oder durchgeführt hat mit der Absicht, Daten zu unterdrücken oder zu fälschen.

RA-10 Inquiry Report

Es kann nicht nachgewiesen werden, dass er die Absicht hatte, unbequeme Daten zu verstecken oder zu fälschen.

Das hier ist besonders lächerlich:

Tatsächlich war es im Gegenteil so, dass in Fällen, auf die sich Einige konzentriert hatten, um Fälschungen von Daten zu belegen, beispielsweise mittels eines „Tricks“ um Daten zu manipulieren, es dargestellt wird als eine Diskussion zwischen Dr. Jones und Anderen einschließlich Dr. Mann, wie man am besten eine Graphik für einen WMO-Report erzeugen könnte. Sie fälschten keine Daten, sondern sie versuchten, eine verständliche Graphik zu konstruieren für jene, die keine Experten in dem Bereich waren. Dieser so genannte „Trick“ war nichts weiter als ein statistisches Verfahren, um zwei oder mehr Arten von Daten auf legitime Weise zusammen zu bringen mittels eines Verfahrens, welches durch viele Fachleute in dem Bereich begutachtet worden war.

RA-10 Inquiery Report

Die harmloseste Erklärung des „Tricks“ lautet, dass man Teile der Rekonstruktion von Keith Briffa bearbeitet hat, weil die Chronologie der Baumringen zeigten, dass die 1930er Jahre bis Anfang der 1940er Jahre wärmer waren als zum Ende der 1990er Jahre. Also ersetzten sie die Baumring-Chronologie durch instrumentelle Aufzeichnungen. Im privaten Bereich ist dieses Verhalten alles andere als harmlos … Es ist vielmehr die Grundlage für sofortige Terminierung oder Schlimmeres.

Ich vermute, dass es keine Beweise dafür gibt, dass man dies in betrügerischer Absicht machte. Allerdings lässt es die Tatsache, dass man es „Mike’s Nature Trick“ nannte, es so aussehen, als ob diese Art des Verfahrens eine Standard-Prozedur war.

Zieht man einen Datensatz heran, welcher zeigt, dass die 1930er Jahre wärmer waren als die 1990er Jahre, und dann einen anderen Datensatz, um diese Relation umzukehren, dann ist das „kein Zusammenbringen von zwei oder mehr Datenarten auf legitime Weise“. Vielmehr handelt es sich dabei um eine totale Verfälschung der Daten.

Beispiele für „Mike’s Nature Trick“ gibt es hier und hier.

Man öffne irgendeinen der **cru_eiv_composite.csv oder **had_eiv_composite.csv-Dateien. Alle verbinden die zeitlich hoch aufgelösten instrumentellen Daten mit den gering aufgelösten Proxy-Daten. Zu Manns Gunsten muss man sagen, dass er zumindest dies so dokumentiert hat, dass man es ausfindig machen kann.

Folgende Aussage aus ihrer PNAS-Studie wird von den Proxy-Rekonstruktionen in keiner Weise gestützt: „Die jüngste Erwärmung scheint anomal zu sein hinsichtlich mindestens der letzten 1300 Jahre, ob nun Baumringe herangezogen worden sind oder nicht. Falls Baumringdaten verwendet worden sind, kann diese Schlussfolgerung auf die letzten 1700 Jahre erweitert werden“.

Die anomale Natur der „jüngsten Wärme“ ist vollständig abhängig von dem „trickreichen“ Gebrauch der instrumentellen Daten. Er hat keine Proxy-Daten nach 1850 verwendet. In der eivrecondescription-Datei heißt es: „Man beachte: Werte von 1850 bis 2006 sind instrumentelle Daten“.

Die folgende Graphik aus der Mann-Studie aus dem Jahr 2008 impliziert, dass alle Rekonstruktionen allgemein übereinstimmen hinsichtlich der Behauptung, dass die „jüngste Erwärmung seit mindestens 1300 Jahren anomal erscheint“ …

Abbildung 6: „Spaghetti-Graphik von Mann et al., 2008. Die älteren Daten sind links.

Durch das Ausfüllen der Graphik mit vielen Rekonstruktionen und das Verputzen mit den instrumentellen Aufzeichnungen am Ende des Graphen ist es unmöglich, irgendwelche Details zu erkennen.

Hier eine Graphik von Mann & Moberg 2005; Christiansen & Ljungqvist 2012 (nicht geglättet), Ljungqvist 2010 und Esper 2002 (geringe Häufigkeit) …

Abbildung 7: Streuung kann in beide Richtungen wirken. Ältere Daten sind links.

Vergrößerung nach 1800 und hinzugefügten HadCRUT4-Daten der NH:

Abbildung 8. Ältere Daten sind links.

Die Moderne Erwärmung erscheint nur deswegen anomal, weil die höhere Auflösung der instrumentellen Aufzeichnungen und deren Lage alle am Ende der Zeitreihe liegen.

Ljungqvist (2010) erklärte das Problem des direkten Vergleichs von instrumentellen Daten mit Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten geht über 0,6°C hinaus. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit zeigt, etwa vom Jahr 1 bis 300 und etwa auf dem Niveau des mittleren Temperaturniveaus von 1961 bis 1990. Es folgte die Kaltzeit des Dark Age von 300 bis 800, die Mittelalterliche Warmzeit von 800 bis 1300 sowie die Kleine Eiszeit von 1300 bis 1900 treten klar hervor. Letzterer folgte im 20. Jahrhundert eine rapide Erwärmung. Die höchsten Mitteltemperaturen in der Rekonstruktion zeigen ich Mitte bis Ende des 20. Jahrhunderts, die niedrigsten Ende des 17. Jahrhunderts. Dekadische Mittelwerte der Temperatur scheinen während substantieller Zeiträume der Römischen und der Mittelalterlichen Warmzeit höher gelegen zu haben als im Zeitraum 1961 bis 1990. Die Temperatur der letzten beiden Jahrzehnte jedoch liegt möglicherweise höher denn je während der letzten zwei Jahrtausende. Allerdings zeigt sich dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solche beispiellose Erwärmung, aber wir müssen berücksichtigen, dass nur wenige, in die Rekonstruktion eingegangene Reihen bis in die neunziger Jahre reichen. Nichtsdestotrotz ist eine sehr sorgfältige Interpretation des Wärmeniveaus seit dem Jahr 1990 im Vergleich zu den wärmsten Zeiten der Römischen und der Mittelalterlichen Warmzeit dringend geboten.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität über Multi-Jahrzehnte und Jahrhunderte sollte als das Minimum der wahren Variabilität jener zeitlichen Maßstäbe betrachtet werden.

Ljungqvist 2010

Abbildung 9: Ljungqvist zeigte, dass die Moderne Warmzeit nicht eindeutig über die Bandbreite der natürlichen Variabilität hinaus gegangen ist. Die dick gestrichelte schwarze Linie repräsentiert die instrumentelle Aufzeichnung. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite der Proxy-Daten relativ zu den instrumentellen Daten zu reflektieren. Ältere Daten stehen links.

Direkte Vergleiche der modernen instrumentellen Aufzeichnungen mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung aufweisen. Die Proxy-Daten zeigen das „Minimum der wahren Variabilität über jene Zeiträume“. Die instrumentellen Daten beschreiben es irgendwie näher der tatsächlichen Variabilität.

Den Proxy-Daten fehlt die Komponente hoher Frequenzen des Signals. Wird die Hochfrequenz-Komponente eines Signals herausgefiltert, dämpft das die Amplitude.

Abbildung 10: Sinuswelle mit einer 10-pt smoothing average. Man beachte die Reduktion der Amplitude infolge Filterung und Glättung (Wood for Trees). Ältere Daten links.

Der direkte Vergleich von instrumentellen Daten mit Proxy-Daten wird sogar noch problematischer, wenn man die zeitliche Länge der Aufzeichnung über 2000 Jahre hinaus verlängert.

Abbildung 11: Klima-Rekonstruktion des Holozän, Andy May WUWT. Ältere Daten sind rechts.

Die vermeintlich „viertwärmsten Jahre jemals“ ereigneten sich etwa 300 Jahre nach dem kältesten Jahrhundert der vergangenen 100 Jahrhunderte. Dies kann nur von jemandem als „Klimakrise“ oder „Klima-Notstand“ bezeichnet werden, der absolut ignorant ist gegenüber grundlegenden wissenschaftlichen Prinzipien, besonders gegenüber Quaternary Geology und Signal-Verarbeitung.

Je zeitlich länger die Aufzeichnung der Rekonstruktion ist, umso wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxys konsistent ist mit jüngeren Proxys. Die zeitliche Auflösung ist eine Funktion des Stichproben-Intervalls.

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen die Auswahl der Proxys ist. Wie in diesen Beiträgen dokumentiert sind etwa 73 Proxys beeinflusst von der Art der Auflösung, welche die signifikanten Klimaereignisse verschleiert. Einige sind auch beeinflusst durch lokale Bedingungen, die keine regionale oder globale Bedeutung haben. Andere überdenken kurze Zeiträume, die nicht die beiden bedeutendsten Klimaereignisse des Holozäns abdecken, nämlich die Kleine Eiszeit und das Holozän-Klimaoptimum.

(…)

Wir haben auch Proxys über lange Zeiträume (mehr als 130 Jahre) außen vor gelassen, weil sie dazu neigen, die Auflösung der Rekonstruktion zu reduzieren und wichtige Details heraus zu mitteln. Der kürzeste Klimazyklus dauert grob 61 bis 64 Jahre, die so genannte „stadium wave“, und wir wollen versuchen, möglichst genau dessen Einfluss zu erkennen. In dieser einfachen Rekonstruktion haben wir versucht, all dem Rechnung zu tragen.

Andy May WUWT

Dies ist eine Tabelle aller „untersuchten“ Proxys. Sie haben eine weitgehend konsistente zeitliche Auflösung. Es sind lange Zeitreihen und überdecken sowohl das Holozän-Klimaoptimum als auch die Kleine Eiszeit, also die wärmste und die kälteste Klimaphase im Holozän. Andys Proxys haben eine mittlere Auflösung von 75 Jahren und eine mittlere Länge der Aufzeichnung von 11.697 Jahren mit geringen Standardabweichungen. Es gibt keinen signifikanten Trend einer abnehmenden Auflösung mit der Zeit, wie es bei den meisten Proxy-Rekonstruktionen der Fall ist.

Abbildung 12: Zeitliche Auflösung (linke Achse) und Länge der Aufzeichnung (rechte Achse). Ältere Daten sind rechts.

Andys Rekonstruktion zeigt, dass der Tiefpunkt der Kleinen Eiszeit die kälteste Klimaperiode des Holozäns war. Dies ist ein Merkmal jeder Nicht-Hockeyschläger-Rekonstruktion und sogar der meisten Hockeyschläger-Rekonstruktionen einschließlich der reihenweise falschen Rekonstruktion von Marcott et al., 2013. Sie zeigt des Weiteren, dass die Moderne Warmzeit relativ zum allgegenwärtigen Klimasignal des Holozäns ziemlich unscheinbar daherkommt (Bohling &Davis, 2001).

Falls man die Übersicht der Referenzen der Rekonstruktionen öffnet und auf die rechts außen liegende Spalte schaut (Kommentare), liest man die Anmerkungen von Andy, ob das Proxy „herangezogen“ wurde, und er erklärt, warum es zurückgewiesen wurde. Die drei Hauptgründe für die Zurückweisung eines Proxys waren:

1. Grobe Auflösung (gekennzeichnet als „Auflösung zu groß“)

2. Nicht alt genug

3. Nicht jung genug

Andy hätte die instrumentelle Aufzeichnung bis zum Ende hiervon verbinden und einen Hockeyschläger erzeugen können … Aber das wäre außerhalb akademischer oder regierungsamtlicher „Wissenschaft“ betrügerisch. Es gleicht dem Zusammenfügen eines Bohrkerns mit einer seismischen Linie und es dann eine Anomalie nennt.

Hinsichtlich Marcott stellen die Autoren fest, dass ihre Holozän-Rekonstruktion nicht direkt verglichen werden können mit instrumentellen Daten infolge der Unterschiede bzgl. der Auflösung … aber sie tun es natürlich trotzdem.

Frage: Was sagen Rekonstruktionen der Paläotemperatur über den Temperaturverlauf der letzten 100 Jahre?

Antwort: Unsere Rekonstruktion der globalen Paläotemperatur enthält u. A. den so genannten „Uptick“ der Temperaturen während des 20. Jahrhunderts. Allerdings stellen wir in der Studie klar, dass dieses Einzelereignis von kürzerer Dauer ist als die inhärente Glättung bei unserem statistischen Mittelungsverfahren, und dieses basiert lediglich auf nur wenigen verfügbaren Paläo-Rekonstruktionen des von uns verwendeten Typs. Folglich ist der Anteil unserer Paläotemperaturwerte nicht statistisch robust und kann nicht als repräsentativ angesehen werden für globale Temperaturänderungen. Darum ist sie auch nicht die Grundlage unserer Schlussfolgerungen. Unsere primären Ergebnisse basieren auf einem Vergleich der längerfristigen Änderungen der Paläotemperatur aus unserer Studie mit den gut dokumentierten Temperaturänderungen, zu welchen es im vorigen Jahrhundert gekommen war, wie durch instrumentelle Aufzeichnungen dokumentiert. Obwohl es nicht Teil unserer Studie ist, wurden hoch aufgelöste Daten der letzten ~130 Jahre aus verschiedenen globalen Archiven zusammengestellt. Diese bestätigen den allgemeinen Erwärmungstrend über dieses Zeitintervall (Anderson, D.M. et al., 2013, Geophysical Research Letters, v. 40, p. 189-193; http://www.agu.org/journals/pip/gl/2012GL054271-pip.pdf).

Frage: Ist die Rate des Temperaturanstiegs der letzten 100 Jahre höher als zu irgendeiner anderen Zeit während der letzten 11.300 Jahre?

Antwort: Unsere Studie hat sich nicht direkt mit dieser Frage befasst, weil die in unserer Studie herangezogenen Aufzeichnungen der Paläotemperatur im Mittel eine zeitliche Auflösung von etwa 120 Jahren haben. Dies erlaubt keine Untersuchungen hinsichtlich der Änderungsraten innerhalb eines Jahrhunderts. Andere Faktoren tragen ebenfalls zur Glättung der Proxytemperatur-Signale bei, welche in vielen von uns verwendeten Aufzeichnungen stecken. Dazu gehören etwa Organismen im Schlamm am Grund der Tiefsee sowie chronologische Unsicherheiten in den Proxy-Aufzeichnungen, welche dazu neigen, die Signale zu glätten, wenn man sie in eine global gemittelte Rekonstruktion eingehen lässt. Wir wiesen nach, dass keine Temperaturvariabilität in unserer Rekonstruktion steckt mit Zyklen kürzer als 300 Jahre. 50% sind enthalten im Zeitmaßstab von 1000 Jahren, und fast alle sind enthalten in Perioden über 2000 Jahre oder mehr. Unsere Monte-Carlo-Analyse trägt diesen Quellen von Unsicherheit Rechnung, um eine belastbare, (wenngleich geglättete) globale Aufzeichnung zu erhalten. Jedwede geringe „Upticks“ oder „Downticks“ der Temperatur, die kürzer sind als einige hundert Jahre in unserer Zusammenstellung paläoklimatischer Daten, sind nicht belastbar, wie in unserer Studie festgestellt.

Real Climate

Falls der „Anteil im 20. Jahrhundert unserer Paläotemperaturen nicht statistisch robust ist“ … Warum fand das dann überhaupt Eingang in die Veröffentlichung? Die modernen instrumentellen Aufzeichnungen wären ein einzelner Datenpunkt bei der Auflösung von Marcotts Rekonstruktion.

Warum ist das von Bedeutung?

Was also würde es bedeuten, falls die Rekonstruktionen eine größere (Esper et al., 2002; Pollack and Smerdon, 2004; Moberg et al., 2005) oder geringere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude zeigen? Wir zeigen, dass Ersteres, also eine verstärkte Variabilität während vorindustriellen Zeiten zu einer Umverteilung des Gewichtes hin zu der Rolle natürlicher Faktoren bzgl. des Antriebs von Temperaturänderungen, den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst. Falls das der Fall sein sollte, wären Übereinkommen wie das Kyoto-Protokoll mit der Absicht, die Emissionen anthropogener Treibhausgase zu reduzieren, weniger effektiv als gedacht.

Esper et al. 2005

Es ist von Bedeutung, weil die einzige Möglichkeit, instrumentelle Daten direkt mit vorindustriellen Proxy-Daten zu vergleichen, eine Filterung der instrumentellen Daten auf die Auflösung der Proxy-Daten zu bringen. Dies ergibt Klima-Rekonstruktionen mit „verstärkter Variabilität in vorindustrieller Zeit“ und „verleiht der Rolle natürlicher Antriebe bzgl. Temperaturänderungen größeres Gewicht, was den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst“.

Es ist von Bedeutung, weil die Befürworter des Anthropozän als geologische Epoche sich auf den Marcott’schen Hockeyschläger stützen.

Abbildung 13: Lauft weg! Das Anthropozän ist über uns gekommen!!! Ältere Daten stehen links.

Es ist von Bedeutung, weil Hockeyschläger bemüht werden, um politische Änderungen zu rechtfertigen, Kohlenstoff-Steuern zu erheben und die individuelle Freiheit und den Wohlstand zu zerschlagen.

Viele der vermeintlichen Beweise, dass jüngste Klimaänderungen von den Normen des Holozäns abweichen, sind genauso konsistent wie das Ergebnis von Differenzen in der Auflösung von paläoklimatischen Daten und instrumentellen Aufzeichnungen.

References

Anklin, M., J. Schwander, B. Stauffer, J. Tschumi, A. Fuchs, J. M. Barnola, and D. Raynaud (1997), “CO2record between 40 and 8 kyr B.P. from the Greenland Ice Core Project ice core,” J. Geophys. Res., 102(C12), 26539–26545, doi: 10.1029/97JC00182.

Christiansen, B. and F.C. Ljungqvist. 2012. “The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability”. Climate of the Past, Vol. 8, pp. 765-786. www.clim-past.net/8/765/2012/ doi:10.5194/cp-8-765-2012

Davis, J. C., and G. C. Bohling. “The search for patterns in ice-core temperature curves. 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Esper, J., E.R. Cook, and F.H. Schweingruber. 2002.  “Low-Frequency Signals in Long Tree-Ring Chronologies for  Reconstructing Past Temperature Variability”.  Science, Volume 295, Number 5563, 22 March 2002.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J.-M. Barnola and V.I. Morgan. 1998. “Historical CO2 records from the Law Dome DE08, DE08-2, and DSS ice cores”. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., U.S.A.

Finsinger, W. and F. Wagner-Cremer. “Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach”. The Holocene 19,5 (2009) pp. 757–764

Kouwenberg, LLR. 2004. “Application of conifer needles in the reconstruction of Holocene CO2 levels”. PhD Thesis. Laboratory of Palaeobotany and Palynology, University of Utrecht.

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

Mann, Michael,  Zhihua Zhang, Malcolm K Hughes, Raymond Bradley, Sonya K Miller, Scott Rutherford, & Fenbiao Ni. (2008). “Proxy-based Reconstructions of Hemispheric and Global Surface Temperature Variations over the Past Two Millennia”. Proceedings of the National Academy of Sciences of the United States of America. 105. 13252-7. 10.1073/pnas.0805721105.

McElwain et al., 2002. “Stomatal evidence for a decline in atmospheric CO2 concentration during the Younger Dryas stadial: a comparison with Antarctic ice core records”. J. Quaternary Sci., Vol. 17 pp. 21–29. ISSN 0267-8179

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko & W. Karlén. 2005. “Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Van Hoof, Thomas, Karsten A. Kaspers, Friederike Wagner-Cremer, R.S.W. Wal, Wolfram Kürschner & Henk Visscher. (2005). “Atmospheric CO 2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis”. Tellus B. 57. 10.3402/tellusb.v57i4.16555.

For additional references, see these Watts Up With That posts:

https://wattsupwiththat.com/2012/12/07/a-brief-history-of-atmospheric-carbon-dioxide-record-breaking/

https://wattsupwiththat.com/2017/03/28/breaking-hockey-sticks-antarctic-ice-core-edition/

https://wattsupwiththat.com/2017/06/09/a-holocene-temperature-reconstruction-part-4-the-global-reconstruction/

https://wattsupwiththat.com/2019/06/06/the-holocene-sea-level-highstand/

Link zu diesem Beitrag: https://wattsupwiththat.com/2019/06/25/resolution-and-hockey-sticks-part-1/




Zwei Nachrichten zur Stromversorgung in Deutschland!

Die gute Nachricht lautet:

 

Mit Dank an Michael Krüger von Science Sceptical

Die schlechte Nachricht lautet so:

Mit Dank an Karin Nagel für den Hinweis!

Es ist so sicher wie das Amen in der Kirche, das die schlechten Nachrichten dieser Art mehr und häufiger werden.

Sehen Sie auch hier den Kommentar von Peter Grimm auf ACHGUT

Sündenbock gesucht. 

Jetzt soll es der böse Spekulant gewesen sein.