Klimawissen­schaftler manipu­lieren die Daten wieder und wieder und wieder und wieder

Auf dem Blog von Pierre Gosselin gibt es einen Beitrag von Kirye aus Japan über die Temperatur-Adjustierungen des GISS bei der NASA (hier, auf Deutsch beim EIKE hier). In der jüngsten GISS-Version V4 unterscheiden sich die vermeintlich „nicht adjustierten“ Daten von den nicht adjustierten Daten in der Vorgängerversion V3.

Tony Heller zeigt Graphiken der Versionen von NASA GISTEMP aus den Jahren 2000, 2017 und 2019. Aus diesen geht hervor, dass Gavin Schmidt und sein Team es fertig gebracht haben, die Erwärmung immer weiter hochzuschrauben, besonders im Zeitraum des unbequemen Stillstands. Den Effekt erkennt man auch in den Abbildungen 2 und 4 auf der GISS history page.

Hier in UK macht das HadCRUT4-Team genau das Gleiche. Clive Best fragt „Was ist mit dem Global Warming Hiatus?“ Die Antwort lautet, das man ihn zerschlagen hat mittels einer ganzen Reihe von Adjustierungen der Daten. HadCRUT3, zeigt so wie im Jahre 2014 veröffentlicht einen eindeutigen Stillstand ohne jede Erwärmung von 2001 bis 2013, aber die jüngsten neuen, verbesserten Daten der letzten Zeit im HadCRUT4 wurden nach oben korrigiert. Clive dachte, dass dies der Erfassung von Stationen mit unterschiedlichen Messungen geschuldet ist, fand jedoch bei Nachforschungen heraus, dass dies mitnichten der Fall ist. Die Zahlen wurden einfach so adjustiert.

Die früheren Versionen von HadCRUT4 können hier eingesehen werden. Daraus wird ersichtlich, wie der Temperaturunterschied zwischen 2013 und 2001 in nachfolgenden Versionen stetig aufwärts getrieben worden ist:

Aber der wesentliche Punkt in diesem Beitrag (das 4. Mal ,wieder‘ in der Überschrift) ist der Bericht über die jüngste Datenmanipulation, von welcher in keinem der obigen Beiträge die Rede ist. Sie stammt von John Kennedy und seinen Kollegen vom UK Met.-Office (UKMO) und wird in einer sehr langen Studie hier beschrieben. Man befasst sich darin mit den Wassertemperaturen (SSTs) und dem brandneuen Datensatz mit der Bezeichnung HadSST4 (verwirrenderweise verwendet HadCRUT4 den Datensatz HadSST3)

Hier folgt Abbildung 14 aus jener Studie. Die Achsenbeschreibung befindet sich in einem Plot weiter unten, aber die großen Merkpunkte sind 1850, 1900, 1950, 2000. In der Graphik wird die gegenwärtige Version HadSST3 verglichen mit der vorgestellten neuen Version HadSST4.

Offensichtlich brauche ich nicht zu erklären, welches die neue und welches die vorherige Version ist. Die Erwärmung wurde einfach um 0,1°C verstärkt, oder 10% insgesamt.

Abbildung 16 in jener Studie zeigt Temperaturtrends gekennzeichnet bis 2012:

Hier stehen die roten Karos für die Rohdaten und die grünen für HadSST3. Die neue Version HadSST4 ist als die schwarze Linie dargestellt, wobei die graue Schattierung die Unsicherheits-Bandbreite repräsentiert. Während der frühen Jahre des 20. Jahrhunderts passte die globale Erwärmung nicht zu der Theorie der Klimawissenschaftler einer Erwärmung durch Kohlendioxid, also wurden die Daten kurzerhand nach unten korrigiert. Aber man betrachte den Trend während des Zeitraumes des Stillstands: hier zeigen die Rohdaten buchstäblich keinerlei Trend. HadSST3 adjustierte den Trend aufwärts, um Erwärmung zu erzeugen, und in HadSST4 wurde noch einmal nach oben adjustiert, wobei die Adjustierung von zuvor in etwa verdoppelt wurde. Und das in einer Ära, in welcher die Datenqualität hervorragend sein sollte dank der Einführung des ARGO float system.

Was also geht hier vor sich? Einen Hinweis darauf gibt es in den anderen beiden Karos in blau und orange. Hierbei handelt es sich um zwei weitere Methoden, die Wassertemperatur zu messen, nämlich ERSST und COBE-SST. Da diese einen signifikant höheren Erwärmungstrend als bei HadSST3 erzeugt haben, musste das UKMO ihre Temperaturdaten ebenfalls aufwärts adjustieren, um damit mitzuhalten. Diese „reduzierte Diskrepanz zwischen Datensätzen“ ist einer der Schlüsselpunkte auf der ersten Seite der Studie.

Durch die ganze Studie zieht sich wie ein roter Faden die Darstellung von Verzerrungen in den Daten und wie diese entfernt werden. Aber die Autoren scheinen die größte Quelle von Verzerrungen zu vergessen, nämlich den Bias, der sich in ihren Köpfen abspielt.

Link: https://cliscep.com/2019/06/30/climate-scientists-fiddling-the-data-again-and-again-and-again-and-again/?

Übersetzt von Chris Frey EIKE




Die Welt geht einem Deep Solar Minimum entgegen

Abbildung: Tägliche Beobachtungen der Sonnenflecken seit 1. Januar 1977 den Daten des Solar Influences Data Analysis Center (SIDC) zufolge. Die dünne blaue Linie repräsentiert die tägliche Sonnenfleckenzahl, während die dunkelblaue Linie das gleitende jährliche Mittel darstellt. Die derzeitige geringe Sonnenflecken-Aktivität zeigen sich eindeutig in den geringen Werten der solaren Einstrahlung. Man vergleiche außerdem mit dem geomagnetischen AP-Index. Datenquelle: WDC-SILSO, Royal Observatory of Belgium, Brussels. Letzter dargestellter Tag: 31. Mai 2019. (Quelle: climate4you.com/)

Tatsächlich deutet alles darauf hin, dass das bevorstehende solare Minimum sogar noch ruhiger werden könnte als das Vorige, welches das tiefste Minimum in fast einem Jahrhundert war. Außerdem gibt es derzeit Prognosen, dass der nächste Sonnenzyklus Nr. 25 der schwächste Zyklus seit über 200 Jahren sein wird. Der gegenwärtige Zyklus Nr. 24 war der schwächste Zyklus mit den wenigsten Sonnenflecken, welcher im Februar 1906 seinen Höhepunkt erreichte. Der Zyklus Nr. 24 setzt den jüngsten Trend sich abschwächender solarer Zyklen fort, der mit Zyklus Nr. 21 mit seinem Höhepunkt um das Jahr 1980 begonnen hatte, und falls die jüngsten Prognose korrekt sind, wird sich das ein weiteres Jahrzehnt fortsetzen.

Deep Solar Minimum

Die Sonne ist wieder einmal fleckenfrei, und während des Zyklus‘ Nr. 24 gab es bereits vier mal Serien von 30 aufeinanderfolgenden Tagen ohne Sonnenflecken. Letztmalig war das während der 1910er Jahre der Fall. Derzeit treten wir in die nächste Phase eines solaren Minimums ein, und es gibt viele Anzeichen dafür, dass es tiefer und länger denn je seit über ein Jahrhundert sein wird. Ein solares Minimum ist eine irgendwie nicht verstandene Phase eines Sonnenzyklus‘, und das bleibt nicht ohne Konsequenzen.

Eine der natürlichen Auswirkungen abnehmender Sonnenaktivität ist die Abschwächung des Sonnenwindes und des Magnetfeldes. Dies wiederum gestattet, dass mehr und mehr kosmische Strahlung in das Sonnensystem eindringen kann. Galaktische kosmische Strahlung besteht aus hoch energetischen Partikeln von außerhalb unseres Sonnensystems, und sie kann die Erdatmosphäre beeinflussen. Die erste Verteidigungslinie gegen diese Strahlung bilden das solare Magnetfeld und der Sonnenwind, die in Kombination einen ,Schild‘ aufbauen, welcher die kosmische Strahlung abblockt. Diese Schildwirkung ist während solarer Maxima am stärksten und während solarer Minima am schwächsten. Die Intensität kosmischer Strahlung variiert global um etwa 15% über einen Sonnenzyklus infolge von Änderungen der Stärke des Sonnenwindes, der ein schwaches magnetisches Feld in die Heliosphäre trägt.

Zusätzlich zum Einfluss auf kosmische Strahlung durch die Abschwächung des solaren Magnetfeldes öffnen sich in der Sonnenatmosphäre Löcher. Austretende Ströme Sonnenwindes treffen auf das Magnetfeld der Erde, was zu Nordlichtern führt selbst ohne Flares und Sonnenflecken. Einige Beobachter glauben, dass Nordlichter während solarer Minima anders gefärbt sind, nämlich mehr rosa als während anderer Phasen des Sonnenzyklus‘.

Und schließlich neigen Leuchtende Nachtwolken dazu, während eines solaren Minimums vorherrschender zu sein, begünstigt diese Periode doch das Anlagern von Wassermolekülen um Meteoritenstaub hoch über der Erdoberfläche. Dadurch bilden sich Eiskristall-Wolken, welche elektrisch blau aufleuchten, wenn sie von Sonnenlicht in großer Höhe getroffen werden. Extreme ultraviolette Strahlung (EUV) kann jene Wassermoleküle zerstören, bevor sie gefrieren. Weniger EUV während solarer Minima kann daher mehr Leuchtende Nachtwolken erzeugen. Da wir nun vermutlich in das tiefste solare Minimum des vorigen Jahrhunderts eintreten, liegt die extreme UV-Strahlung von der Sonne auf dem niedrigsten Niveau seit Jahrzehnten – ein Defizit, das direkt zur Bildung mehr Leuchtender Nachtwolken beitragen kann. Zufälligerweise begann die Saison 2019 für Leuchtende Nachtwolken Ende Mai, gerade als die Sonne am Beginn einer Periode nachhaltiger Fleckenlosigkeit stand – inzwischen über 30 Tage lang [bei Redaktionsschluss dieses Beitrags. Anm. d. Übers.] Weitere Informationen über den Zusammenhang zwischen Sonnenaktivität und Leuchtenden Nachtwolken finden sich hier.

Der Sonnenzyklus Nr. 25

Der allerjüngsten Prognose bzgl. des nächsten Sonnenzyklus‘ (Nr. 25) zufolge wird dieser noch schwächer ausfallen als der gerade zu Ende gehende Zyklus Nr. 24 und außerdem der Schwächste der letzten 200 Jahre sein. Es muss aber erwähnt werden, dass die Prognose von Sonnenzyklen ziemlich schwierig ist, und früheren Prognosen zufolge sollte der nächste Zyklus von ähnlicher Größenordnung wie der Zyklus Nr. 24 sein. Allerdings haben jüngste Forschungen offenbar eine zuverlässigere Methode der Prognose von Weltraumwetter ergeben. Das Maximum dieses nächsten Zyklus‘ – gemessen an den Sonnenfleckenzahlen – könnte um 30% bis 50% niedriger liegen als beim letzten Zyklus Nr. 24. Die Ergebnisse dieses neuen Prognoseverfahrens zeigen, dass der nächste Sonnenzyklus im Jahre 2020 beginnen und im Jahre 2025 sein Maximum erreichen wird.

Diese neue Prognose beruht auf der Arbeit eines Teams unter der Leitung von Irina Kitiashvili vom Bay Area Environmental Research Institute am Research Center der NASA in Silicon Valley. Mit den Daten, die seit 1976 von den Weltraummissionen des Solar and Heliospheric Observatory und des Solar Dynamics Observatory aufgezeichnet worden waren, konnten die Forscher eine Prognose erstellen mittels direkter Beobachtung des solaren Magnetfeldes anstatt lediglich der einfachen Zählung von Sonnenflecken. Letztere gestattet lediglich eine grobe Abschätzung der innersolaren Vorgänge. Weil es ein relativ neues Verfahren ist, gibt es nur Daten von vier vollständigen Zyklen, aber mittels der Kombination von drei Quellen von Sonnenbeobachtungen mit Schätzungen der inneren Aktivität der Sonne konnte das Team im Jahre 2008 eine Prognose erstellen, die gut zu der beobachteten Aktivität der folgenden 11 Jahre passte.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/world-entering-a-deep-solar-minimum/

Übersetzt von Chris Frey EIKE




Klimawandel – die gar nicht so versteckte Agenda totalitärer Kontrolle

Im Moment feiert diese Doktrin Triumphe, trotz der zunehmenden Opposition abweichender Wissenschaftler und Anderer, die sich zunehmend der immensen ökonomischen Gefahr dieser Doktrin bewusst werden. Aber die einfache Reflektion der Themen um Klimawandel und die Empörung über denselben sind nicht alles.

Die Lage im US-Bundesstaat Washington dreht sich wirklich nicht um Umweltpolitik per se, sondern um die Einvernahme eines großen Teils der Vorstellungen in der Öffentlichkeit seitens manipulativer Eliten, um diese an der Macht zu halten. Eine anti-industrielle Bewegung, welche die Früchte der industriellen Revolution zerschlagen will, übernimmt die Kontrolle der westlichen Welt – im Namen der Erlösung des Planeten und mittels einer nicht sehr versteckten Agenda totalitärer Kontrolle. Die Doktrin ist antidemokratisch, wenn nicht sogar selbstmörderisch.

Gegenwärtig erscheint die Taktik der Republikaner in Oregon wie ein Witz. Aber man beachte, dass öffentliche Unterstützer der Republikaner in Gestalt einer bewaffneten Miliz den Weg in die Zukunft weisen. Es ist inhärent, dass ein anti-industrielles und anti-ökonomisches Programm, wie es die Grünen fordern, immer mehr verzweifelte Verlierer hervorbringen wird.

Es hieß, dass Gesellschaft kein Selbstmord-Pakt ist. Einer Politik dieser Art muss mit allen Mitteln Widerstand geleistet werden. Die streikenden Republikaner argumentieren, dass die gegenwärtigen Strukturen der Regierung belastet werden. Die Möglichkeiten der Verlierer, in einem politischen Kampf den Erfolg der Gewinner auszuhalten, nehmen zu.

Unglücklicherweise scheint es unwahrscheinlich, dass der Widerstand schnell genug zunehmen wird, um eine grüne Diktatur des derzeitigen Musters zu verhindern. Große Teile der Regierung und im Wesentlichen sämtliche Medien sind fest in der Hand der Grünen. Die Propaganda trommelt ununterbrochen, und die formale Macht der Opposition wird geschwächt.

Es ist wahrscheinlich, dass die USA und der Westen allgemein dieser inzwischen so groß gewordenen Bedrohung unterliegen. Aber dennoch gibt es eine Hoffnung eines deux ex machina, welche den Tag rettet. Wir wissen alle, dass wir angesichts des Grand Solar Minimum am Rande der nächsten Kaltzeit stehen, geht doch Jenes einer solchen Kaltzeit voran. Lange bevor man einräumen muss, dass eine neue Eiszeit begonnen hat, wird das sich ändernde Klima die Landwirtschaft beeinträchtigen und die globale Erwärmung als Lüge überführen.

Wir können nur hoffen, dass die gegenwärtigen Schäden in der Landwirtschaft, hervorgerufen durch globale Abkühlung, ausreichen werden, um eine allgemeine Krise auszulösen. Ein niederschlagsreicher Winter, gefolgt von einem kühlen Sommer und frühen Frösten wären Ereignisse, die verheerende Auswirkungen auf die Landwirtschaft der Nordhemisphäre nach sich zögen. Der Schaden für das Narrativ der globalen Erwärmung, ausgelöst durch sinkende Temperaturen und dem dadurch einsetzenden Beginn großer ökonomischer Krisen könnten ein harter Schlag gegen die Grüne Bewegung sein und erweitert auch gegen die Glaubwürdigkeit und Autorität der Neuen Linken. Die Wirtschaft ist schon jetzt schwer belastet durch exzessive Schulden, Handelskriege, politische Spannungen und allgemein durch ein Scheitern effektiver Investitionen in neue Kraftwerke und Infrastruktur in den USA. Dieser gar nicht mehr so dünne Strohhalm könnte dem Elefanten das Genick brechen.

Entweder mit demokratischen Mitteln oder durch Aktivitäten lokaler Milizen, denen zunehmend öffentliche Unterstützung für die Zerschlagung der Grünen Bewegung zuteil wird, könnte es mitten im Chaos tatsächlich dazu kommen. All jene, die den Wert des industriellen Zeitalters wiederzubeleben wünschen, sollten sich bereit machen. Die Natur selbst könnte uns die Gelegenheit geben, eine schändliche Doktrin auszulöschen – eine Doktrin, welche einen vollständigen Sieg zu erringen die Gesellschaft fast schon zugelassen hat.

Link: https://www.iceagenow.info/climate-change-the-not-so-hidden-agenda-of-totalitarian-control/

Übersetzt von Chris Frey EIKE




Wozu (gegen­teilige) Messwerte betrachten? Den Klima­wandel fühlt doch jeder

Bayern erGRÜNt

Mittlerweile rief die erste Bayerische Stadt (Erlangen) den Klimanotstand aus. Und auch der neue Ministerpräsident Söder hat – wohl durch Betrachten des Landtags-Wahlergebnisses – festgestellt, dass Bayern besonders (schlimm) vom Klimawandel getroffen sei. Anstatt sich besonnen zu informieren, dreht auch er nun ebenfalls durch – beziehungsweise wurde gleich populistisch wie sein Vorgänger – und fordert, die Kohlekraftwerke noch schneller als geplant vom Netz zu nehmen und durch teure, wie auch problematische Gaskraftwerke zu ersetzen [19]. Bleibt nur noch abzuwarten, wann auch ihn wie seinen Vorgänger, ebenfalls eine paulinische Erweckung überfällt und auch er die wegweisende, unfehlbare, große Führerfigur, Frau Merkel, bedingungslos anzuhimmeln beginnt und er ihr ebenfalls bescheinigt, sie wäre „einzigartig kompetent“ [22]. Einen „Kompetenzinhalt“ hat er schon übernommen: Bayern wird grüner (gemacht), als es die GRÜNEN fordern.

Da bei Problemen die Obrigkeit sich den Staat zuallererst vor Ansprüchen der Bürger schützt, wurde vorsichtshalber allerdings jegliche Unterstützung der Bürger für Klima-Schadensfälle gestrichen. Konsequenz: Da inzwischen alles nur noch die eine Ursache hat (die zum Himmel schreiende, falsche das gewüschte Ergebnis liefernde „Expertise“ eines Münchner Professors zur 5 m hohen Flutwelle in Simbach belegt es überdeutlich [20]), gibt es für Bürger vom Staat in solchen Fällen überhaupt keine mehr.

Der Bayerische Rundfunk hat sich des Themas seit Längerem angenommen und bringt regelmäßig Klimawandel-Propagandavideos [4] [5], um den Bürgern einzubläuen zu zeigen, wie wichtig und richtig das ist.

Reklamiert ein Bürger die „Reportagequalität“, behauptet gar, einiges wäre stark überzeichnet, würde ziemlich wahrscheinlich sogar nicht stimmen, weil recherchierbare Daten falsche Aussagen belegen, wird er belehrt, dass so etwas bei der überragenden Qualität der Öffentlichen gar nicht möglich ist und Kritik damit prinzipiell und ohne Nachprüfung unbegründet sei [3].

Nicht immer kommt es, wie bei den vom WDR/ARTE ganz offen als reine Klimawandel-Propaganda erstellten Reportagen so brachial herüber, obwohl auch der BR eine eigene Klima-Propagandasendereihe „fährt“, um die Bürger auf die richtige Doktrin einzustimmen:
BR Fernsehen, UNKRAUT 17.06.2019: Klimaschutz: Wann wacht die Politik auf?
Die Themen: Erderwärmung: Wie steht Bayern in Sachen Emissionen da? | Wald in Gefahr: Wie der Klimawandel unsere Bäume bedroht

In den meisten Fällen erfolgt es allerdings ganz subtil, dafür aber sicher nicht weniger wirkungsvoll. Deshalb die Gegendarstellung zu einem nicht schlimmen, aber eben typischem Beispiel.

Immer häufiger Extremniederschlag am Chiemsee

Im Chiemgau gibt es „seit ewigen Zeiten“ Überschwemmungen. Der BR berichtet darüber. Wo Überschwemmungen sind, kann der Klimawandel nicht weit sein. Denn wer sonst könnte solche verursachen? Nun, ganz so schlimm wird es nicht dargestellt. Überschwemmungen gab es – das wird zugestanden – auch früher schon. Aber: Es wird – wer hätte schon etwas anderes vermutet – immer schlimmer und schlimmer.

Bild 1 BR-Reportage zu Überschwemmungen im Chiemgau: BR Mediathek

In der Reportage interviewt der Sprecher einen dafür zuständigen „Staatsbediensteten“. Dieser ist aber penetrant nicht bereit, in die ihm wiederholt in den Mund gelegte Klimawandelhysterie einzustimmen.
Was macht man in einer solchen Reportage, wenn gerade das „Wichtigste“ noch fehlt? Man sucht so lange nach Personen, bis sich eine findet, die es besser – das heißt: richtig – weiß und vor der Kamera auch sagt. Solche, die die Natur täglich hautnah erleben, sind dafür prädestiniert, zum Beispiel aus der Landwirtschaft. Und ein solcher fährt im Video auch zufällig auf seinem Traktor vorbei und er weiß, was der „Staatsbedienstete“ sich weigert zu sagen:
Untermahlt von der bei solchen Sequenzen erforderlichen, düsteren und unheilschwangeren Musik kann er berichten:
Sprecher: … aber Landwirt … findet, dass sich etwas verändert hat.
Landwirt: … des is ja etz so, dass gerade die Starkregen wie mas die letzten Jahre etz ghabt hat, dass die scho extrem mehr wern … wie`s weiter wird, glaub i, woaß koaner ...

Diese Art der „Beweisführung“ durch Erleben, anstelle durch Daten, ist beim Klimawandel inzwischen so etwas wie ein Goldstandard Was der Landwirt fühlt, reicht dem BR

Nun anbei eine Wiederholung des immer gleichen Spiels: Was fühlt die selbsternannte Fachperson und berichtet der BR und was sagen dazu die (leicht recherchierbaren) Daten?
Wiederholung: Die befragte „Fachperson“ fühlt: … dass gerade die Starkregen in den letzten Jahren extrem mehr werden …

Was sagen Wetterdaten

Leider sind keine Daten von DWD-Wetterstation direkt am Chiemsee (mit abrufbaren Langzeitdaten) beim DWD frei zugänglich hinterlegt, aber darum herum finden sich welche.
Zuerst vom ebenfalls oft und schlimm von Überschwemmungen getroffenen Rosenheim, ganz in der Nähe:

Bild 2 Rosenheim Tagesniederschlag 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 3 Rosenheim 2-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 4 Rosenheim 3-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 5 Rosenheim 7-Tage Niederschlagssumme 1950 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Sichtungsergebnis der Stationsdaten
In keinem der drei Niederschlagssummen ist seit 1950 irgendwo eine Zunahme des Starkregens zu sehen; und schon gar nicht „in den letzten Jahren extrem mehr“. Seit der letzten, mittleren Niederschlagsspitze in 06.2013, also vor sechs Jahren hat der Extremniederschlag in allen Summen stark abgenommen.

Nun noch die vergleichende Auswertung vom Einzugsgebiet der Tiroler Ache (Haupt-Chiemseezufluss), bei Reit im Winkl.

Bild 6 Reit im Winkl Tagesniederschlag 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 7 Reit im Winkl 2-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 8 Reit im Winkl 7-Tage Niederschlagssumme 1945 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Reit im Winkl zeigt die gleichen Niederschlagsbilder wie Rosenheim. Auf keinen Fall eine Zunahme in den letzten Jahren, sondern ebenfalls eine stetige Abnahme.

Zur Abrundung nun noch Garmisch.

Bild 9 Garmisch Tagesniederschlag 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 10 Garmisch 2-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Bild 11 Garmisch 7-Tage Niederschlagssumme 1936 -2018. Grafik vom Autor aus den DWD-Daten erstellt

Ergebnis
Garmisch hat einen leicht abweichenden Verlauf, zeigt aber auch auf keinen Fall die berichteten „in den letzten Jahren extrem mehr“ Niederschlag. Der Tagesniederschlag (Bild 9) zeigt nur zusätzlich (wieder) die extreme Niederschlagsvarianz und wie solche vollkommen ohne irgendeine Vorwarnung oder Trend „aus dem Nichts“ auftauchen.

Die Niederschlagsverläufe der Chiemsee-Umgebung in Richtung der Berge zeigen: Der Bauer liegt mit seiner Aussage im Video daneben. Gefühlt ist eben nicht auch gewusst. Man könnte fast vermuten, dass der „Staatsbedienstete“ die Messdaten kennt und deshalb im Video so vorsichtig agiert.

Und das gilt nicht nur für Oberbayern, sondern zieht sich durch ganz Deutschland [7] [8].
Aber man braucht kein Hellseher zu sein, um zu ahnen, welche Aussage beim fernsehenden Publikum haften bleiben wird. Dies dank einer BR-Redaktion, welche die Wahrheit gar nicht wissen will.

Was weiß die Bayerische Regierung

Deren zuständiges Ministerium recherchiert, monitort und controllt inzwischen selbstverständlich auch den Klimawandel. Und darüber werden viele Berichte geschrieben. Einen gibt es vom Bayerischen Landesamt für Umwelt mit dem Titel:
[2] Hochwasser im Spiegel der Zeit
Daraus einige Angaben und Daten.

Zuerst nicht von Oberbayern, sondern vom Main die Hochwasserabflussmengen. Was EIKE-Leser bereits wissen, nehmen – seit es dank dem sich von der schlimmen, kleinen Eiszeit wieder etwas erwärmendem Klima – (nicht nur) am Main, die Hochwasser stetig ab.

Bild 12 [2] Main bei Würzburg. Jahres-Höchstabflüsse 1826 – 2007. Trendlinie vom Autor zugefügt

Noch besser lässt es sich an den Pegelständen sehen: So wenig Hochwasser wie in den letzten Jahrzehnten war noch nie. Trotzdem wurde 2013 bei Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überschwemmungsgebiet zugewiesen hatte. Doch der Schuldige war damals laut einer Zeitung natürlich der Klimawandel.

Bild 13 Main Historische Pegelstände Würzburg. 2013 wurde das Afrikafestival „wegen des Klimawandels, der immer höhere Hochwasser zur Folge hat“ (Artikel in einer Lokalzeitung) überschwemmt. Grafik vom Autor anhand der Pegelangaben erstellt

Nun wieder näher Richtung Oberbayern, Abflussmengen der Donau. Diese zeigen extreme Spitzen, aber ebenfalls keine Zunahme. Und alles, was kürzlich war, war in der (kälteren) Vergangenheit ebenfalls schon.

Bild 14 [2] Donau unterhalb Passau. Jahres-Hochstabflüsse 1861 – 2006, gemessen am Pegel Achleiten.

Anbei auch überregionale Fluß-Pegelbilder, um zu zeigen, wie die Auswirkungen solcher Höchstabflüsse konkret aussehen, vor allem aber auch um zu zeigen, dass die hohen und höchsten Flutpegel vor allem in der vor-industriellen, kalten Vergangenheit auftraten:

Bild 15 Pegel Main Aschaffenburg. Quelle: Wasserwirtschaftsamt Aschaffenburg, Homepage

Was man an den Pegelbildern sofort sieht: schlimme Hochwasser waren gerade und vorwiegend in der angeblich „natürlichen“, freundlichen, herbeigesehnten, vorindustriell kalten Zeit“ regelmäßige und häufige Ereignisse.

Ergänzend dazu Listungen aus der Schrift des Bayerischen Landesamtes für Umwelt [2]:
Isar bei München:
Überliefert sind große Hochwasser mit starken Verwüstungen aus den Jahren:
1400, 1401 , 1404, 1418, 1462, 1463, 1477, 1485 und 1491, 1589, 1624, 1633. 1729 standen das ganze Lehel und die Au unter Wasser. 1739 wiederum, aber viel höher – bis Thalkirchen bildete die Isar einen See. Weitere Hochwasser gab es 1778, 1783, 1786 drei, 1795 und 1802. 1807 riss das Hochwasser ein Achtel Grund der Au fort. 1813 ertranken hundert Schaulustige, als das Hochwasser die Ludwigsbrücke zum Einstürzen brachte. Weitere Hochwasser waren 1865, 1873 – Einsturz der Max-Joseph-Brücke – und 1875.
1899 riss ein Jahrhunderthochwasser die Prinzregentenbrücke und die MaxJoseph-Brücke ein – nur sechs Jahre
nach ihrer Fertigstellung.
Im 20. Jahrhundert suchten München große Hochwasser
1924, 1930, 1940, 1954 und 1999 (Pfingsthochwasser) heim. Das Augusthochwasser 2005 ist mit den großen Hochwassern der vergangenen Jahrhunderte vergleichbar.

Berchtesgaden
Im Berchtesgadener Talkessel sind viele historische Hochwässer dokumentiert. Besonders große Hochwässer herrschten 1269, 1386, 1403, im Juli 1508 und Oktober 1567, 1569, 1572, 1598, 1618/19, 1622, 1649, 1661, 1734, 1736, 1747, 1759, 1764, 1786, 1787, 1807, 1830, 1864, 1876, 1897, 1899, 1918 und 1920
1931
wurde in Schellenberg eine Pegelanlage eingerichtet. Nach den Pegelaufzeichnungen sind die Hochwässer 1954 und 1959 eindeutig mit Hochwasserspitzen von 3,50 m bzw. 3,59 m nachgewiesen. 1965 ließ man den Pegel in Schellenberg wieder auf und nahm einen neuen Pegel in Berchtesgaden in Betrieb.
Markante Wasserstände zeigen sich hier
1977, 1995, 2002 und 2005. 2002 wurde der Höchstwert von 2,95 m erreicht.

Expertenwissen

Trotzdem – beziehungsweise nicht unerwartet – kommt das Bayerischen Landesamtes für Umwelt nach Analyse der Niederschläge seit 1950 in der Schrift zu dem Ergebnis, dass Niederschlags-Extremereignisse in Oberbayern durch den Klimawandel bedingt zunehmen würden, schreibt aber gleich dazu, dass beim Niederschlag eine kurzfristige Betrachtung gar nicht aussagefähig ist: [2] … Ein Blick in die Hochwasserchronik der Stadt Passau zeigt aber, dass das Wetter und die Abflussbildung als hoch komplexes System mit vielen sich gegenseitig beeinflussenden Faktoren noch nie zur statistischen Mittelwertbildung geneigt haben. Nach Jahrzehnten mit nur moderat erhöhten Sommerabflüssen folgten immer wieder im Abstand von nur wenigen Jahren mehrere große, Schaden bringende Hochwasser hintereinander …

Um die Konfusion noch deutlicher zu machen, zeigt eine Auswertung der Schrift: [13] Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete, des gleichen, Bayerischen Landesamtes für Umwelt, dass sich keine Signifikanz einer Zunahme zeigt, eher eine Abnahme [14]. Bestätigt wird dies durch eine Schrift des KLIWA-Projektes A 1.1.3 „Trenduntersuchungen extremer Niederschlagsereignisse in Baden-Württemberg und Bayern“ [19]:
… Im hydrologischen Winterhalbjahr zeigen die Starkniederschlagshöhen des Zeitraums 1931–2000 deutliche Zunahmen. Diese Zunahmen verstärken sich vereinzelt noch mit zunehmender Dauer (von 1 Tag bis 10 Tage) der Starkniederschläge. Regionale Schwerpunkte sind in Bayern die fränkischen Landesteile sowie Teile des Bayerischen Walds, in BadenWürttemberg der Schwarzwald sowie der Nordosten des Landes.
Im hydrologischen Sommerhalbjahr ist hingegen kein einheitlicher Trend bei den Starkniederschlägen festzustellen. Regionen mit einer Zunahme (z. B. Ostrand des Schwarzwaldes, Donautal, Teile Mittelfrankens) stehen große Gebiete mit einer Abnahme (z. B. Unterfranken, Südost-Bayern und Teile des Alpenvorlandes) bei insgesamt geringer Signifikanz gegenüber …

Dass das Überschwemmungsjahr 2013 ein Extrem war, zeigen die Bilder der Messstation von Reit im Winkl und das Bild der Niederschlagssummen vom 26.06.2013. Hier muss nochmals gesagt werden, dass der DWD für die Bürger nicht alle Daten zur Verfügung stellt. Viele der in der Schrift [15] gelisteten Messstation dieser Gegend finden sich im öffentlich zugänglichen DWD-Archiv nicht.

Bevor zur Betrachtung der Vergangenheit geschritten wird, anbei noch ein Bild, welches die Problematik von Niederschlags-Extremereignissen verdeutlicht: Sie sind sehr lokal begrenzt. Es hängt von der Lage weniger Messstationen ab, ob sie überhaupt erfasst und richtig gemessen werden, weshalb man es inzwischen mit Wetterradar macht.
Zwangsweise führt die Erfassung mit Wetterradar als Folge der höheren Abdeckung zu einer „schlimmen Erhöhung“ der Ereigniszahlen, also einem „unbestechlichen“ Beleg für den bereits wirkenden Klimawandel. Der DWD nutzt das auch entsprechend aus, und darf den Personal und Kontrollaufwand auszubauen.

Bild 24 [15] Lage der Starkniederschläge Ende Juli 2013

Unnatürlich“ ist unser Wetter nur, wenn man die kältere Vergangenheit weglässt

Wie gezeigt wurde, „erklärt“ das Bayerische Landesamt für Umwelt, die Hochwasser in Oberbayern würden zunehmen, obwohl alte – und vor allem auch historische Daten und Pegelmarkierungen – eindringlich darauf hinweisen, wie oft und schlimmer solche gerade in der kälteren Vergangenheit gewütet haben. Dem Amt reicht jedoch eine Zählung von Ereignissen seit etwa 1950 (ungefähre Verfügbarkeit brauchbarer Messdaten) aus. Ein Zeitraum, der für Niederschlag wenig Relevanz hat, wie man nicht nur anhand der vorherigen und in einem früheren Artikel gezeigten Niederschlagsmessreihen sofort sehen kann [17].

Auch die Aussagen in den Informationsschriften über Zeiten vor 1950 belegen es deutlich:
1845 und die Tauflut von 1882/83 bewirkten Überschwemmungen auf fast der gesamten Fläche Aus alten Schriften geht hervor, dass auch das Hochwasser vom 28. Dezember 1882 bis 3. Januar 1883 beinahe das ganze Einzugsgebiet der bayerischen Donau umfasste. Es wird von einem Katastrophenhochwasser gesprochen.

1924 waren lang anhaltende starke Regenfälle von rund 40 Stunden, die das südliche und Teile des nördlichen Einzugsgebietes der bayerischen Donau von West nach Ost durchzogen.
Besonders betroffen war der Chiemgau. Hier fielen in 30 Stunden 300 mm Regen.
In allen anderen Fällen traten und treten Hochwasserschwerpunkte auf, zum Beispiel in Donauwörth, Regensburg oder Passau. Die Donau bis oberhalb Passau ist besonders im Winter prädestiniert für Hochwasser. Die größten wurden in den Jahren
1845, 1850, 1862 und 1882 beobachtet. Damals erreichte die Donau noch höhere Wasserstände als im März 1988.

Wie durch geschickte Statistik aus Datenmaterial das „Gewünschte“ „herausgelesen“ wird, hat der Autor ebenfalls bereits einmal aufgezeigt. Auch darin wurde übrigens eine „klimawandel-bedingte Zunahme“ durch eine zu kurze – und fehlende, historische – Betrachtung herausgelesen:
EIKE 22.08.2017: [18] Verschiebt der Klimawandel Europas Hochwässer dramatisch

Dabei gibt es auch sonst genügend Anzeichen für eine andere Aussage:
Eine Studie (zitiert aus [9]) wertete die Hochwasser-Häufigkeiten im Alpenvorland aus. Diese kam zu dem Schluss: Ausgerechnet als es kurz vor Beginn der Industrialisierung am kältesten war, waren nach dieser Studie die Hochwasser am häufigsten.

Bild 25 Darstellung der Hochwasserhäufigkeit im bayerischen Alpenvorland [9]

Geradezu ketzerisch ist die weitere Aussage in dieser Studie: [9] „Die Hochwasserentwicklung zwischen dem 17. Jahrhundert und 1930 korreliert mit der Entwicklung der Sonnenflecken. Und das hoch signifikant“
Wie widersprüchlich dazu die Angaben in den offiziellen Publikationen sind, zeigt auch die die folgende Feststellung:
[19] … Als Fazit bleibt festzustellen, dass eine regionalspezifische Zunahme der Starkniederschlagshöhen am deutlichsten in den Wintermonaten Oktober – April statistisch nachweisbar ist … während im Sommer weniger extreme Niederschläge auftraten

Bild 26 [19] Verteilung von Veränderungen an Niederschlagshöhen >20 mm/Tag in Baden-Württemberg/Bayern

Wie man im Bild 26 sieht, fällt ausgerechnet das laut dem BR durch eine Zunahme besonders betroffene Oberbayern mit einer Abnahme im Sommerhalbjahr auf.

Macht aber nichts. Wie es „sein muss“, lässt sich simulieren:
[2] Ausmaß des künftigen Klimawandels
… Eine Verschiebung statistischer Mittelwerte und Verteilungen der Klimakenngrößen bedeutet auch eine Zunahme der Häufigkeit bisheriger Extremwerte. Eine Zunahme von Trockenperioden, aber auch von Starkniederschlägen, wird zwangsläufig eine Veränderung des Abflussgeschehens unserer Gewässer bewirken …

Nochmals Daten zur Gegend um den Chiemsee

Im folgenden Bild 27 zeigt sich wieder die Variabilität, welche oft auch nach 100 Jahren Trend plötzlich ausreißt, ohne den langzeit-Trend zu stören, beziehungsweise, ob es der Beginn einer Änderung des Langzeittrends ist, weiß man vielleicht in 100 Jahren, niemals aber anhand einer der üblichen, kurzfristigen Analysen.

Bild 27 [15] Mangfall: Höchstes Hochwasser seit 1899. Trendlinien vom Autor zugefügt

Bild 28 [15] Jahreshöchststände Chiemsee seit 1888. Trendlinien vom Autor zugefügt

Bild 29 [15] Jahreshöchststände Tegernsee seit 1895. Trendlinien vom Autor zugefügt

Bildunterschrift: Auch am Tegernsee war der Wasserstand der höchste seit 1899. Damals wurde ein Scheitel von 287 cm erreicht.

Ergebnis
Die Niederschlagsverläufe der Messstationen zeigen bei der Langzeitbetrachtung keinen steigenden Trend.

Freud und Leid hängen nicht von der CO2-Vermeidung ab

Simbach ist wohl das bisher extremste Beispiel einer Gemeinde, welche für CO2-Vermeidung zur Rettung der Welt zwar einen Klimaaward erhielt, wichtige Maßnahmen, um ihre Bürger zu schützen jedoch unterließ [20]. Die Strafe war furchtbar.

Nürnberg machte es vor über 100 Jahren nach der Flut von 1909 wie folgt: [2] Bereits 1910 begann man mit der Planung einer Flutüberleitung in der Altstadt. Wegen der Widerstände wurde diese zu den Akten gelegt. Dann zerstörte der 2. Weltkrieg die Altstadt fast vollständig. Nun war es möglich, die Planung doch umzusetzen. 1962 war die Umsetzung fertig. Seitdem gab es in Nürnberg keine Überflutung mehr.

Das bedeutet aber nicht, dass es allgemein akzeptiert würde. Was früher für die Bürge katsstophal war, gilt heute als „beglückend natürlich“ und gut, weil man die grausamen Auswirkungen nicht erlebt hat:
[2] … Heute werden jedoch die Begradigung der Pegnitz, der technische Uferverbau mit Beton und Stahlträgern sowie der Verlust von Flussauen als Mängel empfunden …

Rosenheim in Oberbayern hatte ebenfalls das Glück der Geschichte: Ihr (Teile davon) schützender Damm wurde 2012, gerade ein Jahr vor der sonst unweigerlich folgenden Überflutung der Altstadt fertig:

Manche können sich kaum vorstellen, wie extrem Städte auch in Deutschland direkt in Überflutungsgebieten siedeln. Das ist schon fast so, wie in Japan in Tsunami-gefährdeten Gebieten, oder den Südsee-Atollen, wo die neuen Häuser nicht mehr wie früher auf Stelzen gebaut werden, und sich die Bewohner nun beim Westen über das Wasser im Wohnzimmer beklagen.

Bild 32 Überflutungsgefährdetes Gebiet von Rosenheim. Das im Bild 33 gezeigte Überschwemmungsgebiet Oberwöhr vom Autor gekennzeichnet. Quelle: LfU Bayern, Hochwasserkarten

Und so sieht es trotz Dämmen aus, wenn das seit Jahrhunderten regelmäßig flutende Wasser wiederkommt:

Noch weiter zurück in die Vergangenheit

Es gibt Studien, die den Versuch wagen, Niederschläge der Vergangenheit zu ermitteln. Im folgenden Bild hat eine Studie drei Rekonstruktionen zusammengefasst.
Neben dem, dass sich die Rekonstruktionen zeitweise widersprechen – was die Probleme solcher Rekonstruktionsversuche überdeutlich aufzeigt -, zeigen alle trotzdem eines: Das aktuelle Wetter ist nicht entfernt extrem, „noch nie so gewesen“, oder gar schlimmer geworden.

Bild 34 [10] Niederschlagsverläufe Norddeutschland. Grenzlinien vom Autor zugefügt

Parodie am Rande: Hilft eine Zunahme der Überschwemmungen* den Biobauern?

Man könnte es fast meinen, wenn man liest, dass Hochwasser einst erwünscht, weil notwendig waren (der im Video interviewte „Staatsbedienstete“ spricht dieses Thema ebenfalls an):
[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit
Die Landwirtschaft strebte nur den Schutz vor schadbringenden Hochwassern im Sommer an, die Winterhochwasser dagegen, mit ihrer düngenden Wirkung, waren sogar erwünscht … Nach den Hochwasserereignissen um 1920 war durch die Zunahme des Schadenspotenzials in den Überschwemmungsgebieten ein größeres Schutzbedürfnis entstanden. Nun waren durch die aufkommende Verwendung von Kunstdünger in der Landwirtschaft die Winterhochwasser trotz ihrer düngenden Wirkung ebenfalls unerwünscht.

Das Klima hat zwischenzeitlich diesem, sicher über viele Jahrtausende bestehenden Wunsch nachgegeben, und den Niederschlag im Winter etwas erhöht, dafür im Sommer verringert.

Bild 35 Deutschland, Sommerniederschlag Anomalie. Quelle: DWD Viewer

Bild 36 Deutschland, Winterniederschlag Anomalie. Quelle: DWD Viewer

Bild 37 Deutschland, Jahresniederschlag Anomalie. Quelle: DWD Viewer

Dank der zwischenzeitlich entwickelten, modernen Agrartechnik allerdings zu spät, somit zur falschen Zeit. Außer man denkt GRÜN und will sowieso die moderne, erfolgreiche Landwirtschaft abschaffen. Dann muss man wegen dem durch die hohen Verluste des Bioanbaus enormen, zusätzlichem Platzbedarf auch wieder überschwemmungs-gedüngte Flussauen nutzen.

Es kann den inzwischen in Flussauen siedelnden Bewohnern also noch gehen wie den Autofahrern: Sie werden aus ihren Gebieten einfach vertrieben, weil man diese zur geforderten Ausweitung der Bio-Landwirtschaftsfläche benötigt. Da (auch fast entschädigungslose) Enteignung inzwischen wieder hoffähig geworden ist, wird einem solchen, GRÜNEN Wunsch keine der etablierten Parteien etwas dagegen setzen.

Trocknet unsere Heimat jetzt aus?

Diese Frage stellt unsere Agrarministerin, Frau Klöckner (Studium: Politikwissenschaft, katholische Theologie und Pädagogik) laut dem FOCUS: „Agrarministerin Klöckner über die Folgen der Hitze“.
Wer keine Ahnung hat, kann ja mindestens Fragen (in den Raum) stellen. Einfacher wäre es gewesen, die DWD-Daten (Bilder 35 – 38) anzusehen (dauert ca. eine Minute) und die Antwort bis zum Jahr 2100 zu erhalten. Diese ist eindeutig: Nein. Zumindest aufgrund der Daten aktuell und der Vergangenheit, erhärtet anhand der Simulationen (sofern man solchen „Glauben“ schenkt).
Das ist unseren Minister*innen (und hier auch dem FOCUS) aber schon seit Längerem für das kärgliche Gehalt (und Pensions-Anwartschaft) wohl nicht mehr zuzumuten: Und ihrem Agrar-Minsterium fehlen ersatzweise wohl geeignete, externe Berater, die so etwas „Kompliziertes“ schaffen könnten.

Bild 38 Deutschland, Jahresniederschlag absolut mit „Vorschau“ zum Jahr 2100. Quelle: DWD Viewer

oQuellen

[1] BR Reportagevideo: Chiemgau im Wandel – Hochwasser und Zombiebäume

[2] Bayerisches Landesamt für Umwelt, Schrift: Hochwasser im Spiegel der Zeit

[3] EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert

[4] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[5] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[6] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[7] EIKE 04.06.2018: Nun überschwemmt der Klimawandel bereits unsere Städte. Alternativ: Hat Deutschland kein Geld mehr, um sich gegen normale (Un-)Wetter zu schützen?

[8] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[9] Uni Augsburg, Dr. O. Böhm, Publizierung: Das Hochwasser und die Sonnenflecken

Studie: Changes of regional climate variability in central Europe during the past 250 years

http://link.springer.com/article/10.1140%2Fepjp%2Fi2012-12054-6

[10] tobias scharnweber at al.: Removing the no-analogue bias in modern accelerated tree growth leads to stronger medieval drought

[11] Hochwassernachrichtendienst Bayern, Pegel Staudach

[12] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[13] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[14] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[15] Wasserwirtschafsamt Rosenheim (Homepage), Schrift: Das Hochwasser vom Juni 2013 Dokumentation

[16] EIKE 19. Juni 2019: Tuvalu versinkt mal wieder – nicht. UNO Generalsekretär posiert für das Time Magazin

[17] EIKE 03.06.2018: Früher war es schlimmes Wetter, heute macht das Gleiche mit Sicherheit der Klimawandel

[18] EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch

[19] LUBW KLIWA-Projekt A 1.1.3: Langzeitverhalten der Starkniederschläge in Baden-Württemberg und Bayern
Tagesschau 22.06.2019: Deutsche Klimaziele Söder will Kohleausstieg schon 2030

[20] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[21] EIKE: Klimagaga: Heißzeitkatastrophe im Berliner Grundwasser

[22] Die Welt 11.05.2019: „Einzigartig kompetent“ Seehofer lobt Merkel: „Sie ist in dieser Regierung die Beste“

[23] MSN 27.06.2019: Hitzewelle 2019: Mehrere Tote, neue Temperatur-Rekorde und die Aussichten

[24] YouTube Video: Wetterexperte Stefan Rahmstorf: „Wir verlieren die Kontrolle über das Klimasystem“

[25] YouTube Video, Volker Quaschning: Ist Kohlendioxid wirklich ein Klimakiller?




Zeitliche Auflösung und Hockey­schläger

Abbildung 1a: Seismische Wellenlänge vs. Geschwindigkeit für dominante Frequenzen von 10, 25, 50 und 100 Hz (SEG Wiki)

Dünnere Schichten können erkannt, aber nicht aufgelöst werden. Gleiches gilt für normale Verwerfungen. Falls die vertikale Auflösung mindestens λ/4 beträgt, kann die Verwerfung aufgelöst und eine genaue Schätzung aufgrund der seismischen Daten vorgenommen werden. Falls die Auflösung geringer ist, kann man bestenfalls erkennen, dass eine Verwerfung vorhanden ist.

Abbildung 1b: Seismisches Abbild einer normalen Verwerfung bei λ/16, λ/8, λ/4, λ/2 and λ. (SEG Wiki) [Hinweis: Auch im Original ist die Graphik nicht deutlicher!]

Wenn man geologische und geophysikalische Daten integriert, unterteilen wir den Bohrkern nicht einfach in ein seismisches Profil. Wir konvertieren die Bohrkerne in ein synthetisches Seismogramm. Dies wird auf höchst effektive Weise erreicht mittels Schall- und Dichte-Messungen [sonic and density logs].

Abbildung 2: Synthetisches Seismogramm (AAPG Wiki).

Die Schall- und Dichte-Messungen werden herangezogen, um akustische Impedanz und eine Serie von Reflektions-Koeffizienten (RC) zu berechnen. Der RC ist verbunden mit einer kleinen seismischen Welle, oftmals extrahiert aus den seismischen Daten nahe des Bohrlochs. Die synthetischen seismischen Spuren (3 Paneele zur Rechten), können dann direkt verglichen werden mit dem seismischen Profil. Der Unterschied in der Auflösung ist ziemlich groß. Das Intervall von Trog zu Trog im seismischen Impuls unten liegt bei etwa 150 Metern.

Abbildung 3: schematischer Vergleich eines Bohrkerns mit einem seismischen Impuls mit einer Wellenlänge von 150 m

Was hat das nun mit Klima-„Wissenschaft“ zu tun?

Die Signaltheorie [?] und die Prinzipien der Bearbeitung von Signalen sind auf alle Signale anwendbar, nicht nur auf seismische Daten. Ein Signal ist eine zeitlich variable Abfolge von Zahlen. Fast alle Rekonstruktionen von Temperatur, Kohlendioxid und Meeresspiegel werden mittels vieler der gleichen Datenverarbeitungs-Verfahren wie beim Verarbeiten seismischer Daten erstellt. Dekonvolution ist besonders unentbehrlich bei der Erstellung von Kohlendioxid-Chronologien aus Eisbohrkernen. Manchmal werden die Signal-Verarbeitungsverfahren ordnungsgemäß durchgeführt. Van Hoof et al. (2005) zeigten, dass die CO2-Daten aus Eisbohrkernen repräsentieren ein über Jahrhunderte und Jahrtausende gleitendes Mittel von CO2-Niveaus in der Vergangenheit. Im Wesentlichen wurde ein synthetisches Seismogramm erzeugt aus Stomata-Chronologien und mit dem Eisbohrkern in Zusammenhang gestellt.

Abbildung 4: Graphik A zeigt eine Häufigkeitskurve aus Stomata-Daten. Graphik B zeigt den Eisbohrkern D47 aus der Antarktis. Die gestrichelte Linie in Graphik B ist der „synthetische“ Eisbohrkern, erzeugt mittels der Stomata-Häufigkeitskurve (Van Hoof et al. 2005)

Aus meiner geologischen Perspektive sind die meisten Klima-„Hockeyschläger“ das Ergebnis unsachgemäßer Integration von instrumentellen Daten mit hoher Auflösung (wie in Bohrkernen) und weniger hoch aufgelöster Proxydaten (wie bei der Reflektion seismischer Daten). Viele dieser Hockeyschläger scheinen das Ergebnis einer nachlässigen, wenn nicht sogar unverantwortlichen Missachtung grundlegender Prinzipien der Signalverarbeitung zu sein.

Hockeyschläger bei der Temperatur-Rekonstruktion

Abbildung 5: „Mike’s Nature Trick“. Ältere Daten stehen links.

Eine der ungeheuerlichsten Verstöße gegen diese Prinzipien ist die Erzeugung von Klima-„Hockeyschlägern“ mittels Variationen von „Mike’s Nature Trick“.

Nach dem Klimagate-Skandal führte die Penn State [= Pennsylvania State University] eine „Untersuchung“ von Mike’s Nature Trick durch. Die Weißwäsche seitens Penn State war grotesk:

Nach sorgfältiger Bewertung aller Beweise und relevanter Unterlagen kommt das Untersuchungs-Komitee zu dem Ergebnis, dass es keine glaubwürdigen Beweise dafür gibt, dass Dr. Mann jemals versucht oder daran teilgenommen hat, direkt oder indirekt, Maßnahmen durchzuführen oder durchgeführt hat mit der Absicht, Daten zu unterdrücken oder zu fälschen.

RA-10 Inquiry Report

Es kann nicht nachgewiesen werden, dass er die Absicht hatte, unbequeme Daten zu verstecken oder zu fälschen.

Das hier ist besonders lächerlich:

Tatsächlich war es im Gegenteil so, dass in Fällen, auf die sich Einige konzentriert hatten, um Fälschungen von Daten zu belegen, beispielsweise mittels eines „Tricks“ um Daten zu manipulieren, es dargestellt wird als eine Diskussion zwischen Dr. Jones und Anderen einschließlich Dr. Mann, wie man am besten eine Graphik für einen WMO-Report erzeugen könnte. Sie fälschten keine Daten, sondern sie versuchten, eine verständliche Graphik zu konstruieren für jene, die keine Experten in dem Bereich waren. Dieser so genannte „Trick“ war nichts weiter als ein statistisches Verfahren, um zwei oder mehr Arten von Daten auf legitime Weise zusammen zu bringen mittels eines Verfahrens, welches durch viele Fachleute in dem Bereich begutachtet worden war.

RA-10 Inquiery Report

Die harmloseste Erklärung des „Tricks“ lautet, dass man Teile der Rekonstruktion von Keith Briffa bearbeitet hat, weil die Chronologie der Baumringen zeigten, dass die 1930er Jahre bis Anfang der 1940er Jahre wärmer waren als zum Ende der 1990er Jahre. Also ersetzten sie die Baumring-Chronologie durch instrumentelle Aufzeichnungen. Im privaten Bereich ist dieses Verhalten alles andere als harmlos … Es ist vielmehr die Grundlage für sofortige Terminierung oder Schlimmeres.

Ich vermute, dass es keine Beweise dafür gibt, dass man dies in betrügerischer Absicht machte. Allerdings lässt es die Tatsache, dass man es „Mike’s Nature Trick“ nannte, es so aussehen, als ob diese Art des Verfahrens eine Standard-Prozedur war.

Zieht man einen Datensatz heran, welcher zeigt, dass die 1930er Jahre wärmer waren als die 1990er Jahre, und dann einen anderen Datensatz, um diese Relation umzukehren, dann ist das „kein Zusammenbringen von zwei oder mehr Datenarten auf legitime Weise“. Vielmehr handelt es sich dabei um eine totale Verfälschung der Daten.

Beispiele für „Mike’s Nature Trick“ gibt es hier und hier.

Man öffne irgendeinen der **cru_eiv_composite.csv oder **had_eiv_composite.csv-Dateien. Alle verbinden die zeitlich hoch aufgelösten instrumentellen Daten mit den gering aufgelösten Proxy-Daten. Zu Manns Gunsten muss man sagen, dass er zumindest dies so dokumentiert hat, dass man es ausfindig machen kann.

Folgende Aussage aus ihrer PNAS-Studie wird von den Proxy-Rekonstruktionen in keiner Weise gestützt: „Die jüngste Erwärmung scheint anomal zu sein hinsichtlich mindestens der letzten 1300 Jahre, ob nun Baumringe herangezogen worden sind oder nicht. Falls Baumringdaten verwendet worden sind, kann diese Schlussfolgerung auf die letzten 1700 Jahre erweitert werden“.

Die anomale Natur der „jüngsten Wärme“ ist vollständig abhängig von dem „trickreichen“ Gebrauch der instrumentellen Daten. Er hat keine Proxy-Daten nach 1850 verwendet. In der eivrecondescription-Datei heißt es: „Man beachte: Werte von 1850 bis 2006 sind instrumentelle Daten“.

Die folgende Graphik aus der Mann-Studie aus dem Jahr 2008 impliziert, dass alle Rekonstruktionen allgemein übereinstimmen hinsichtlich der Behauptung, dass die „jüngste Erwärmung seit mindestens 1300 Jahren anomal erscheint“ …

Abbildung 6: „Spaghetti-Graphik von Mann et al., 2008. Die älteren Daten sind links.

Durch das Ausfüllen der Graphik mit vielen Rekonstruktionen und das Verputzen mit den instrumentellen Aufzeichnungen am Ende des Graphen ist es unmöglich, irgendwelche Details zu erkennen.

Hier eine Graphik von Mann & Moberg 2005; Christiansen & Ljungqvist 2012 (nicht geglättet), Ljungqvist 2010 und Esper 2002 (geringe Häufigkeit) …

Abbildung 7: Streuung kann in beide Richtungen wirken. Ältere Daten sind links.

Vergrößerung nach 1800 und hinzugefügten HadCRUT4-Daten der NH:

Abbildung 8. Ältere Daten sind links.

Die Moderne Erwärmung erscheint nur deswegen anomal, weil die höhere Auflösung der instrumentellen Aufzeichnungen und deren Lage alle am Ende der Zeitreihe liegen.

Ljungqvist (2010) erklärte das Problem des direkten Vergleichs von instrumentellen Daten mit Proxy-Rekonstruktionen:

Die Amplitude der rekonstruierten Temperatur-Variabilität im Zeitmaßstab von Jahrhunderten geht über 0,6°C hinaus. Diese Rekonstruktion ist die erste, welche eine ausgeprägte Römische Warmzeit zeigt, etwa vom Jahr 1 bis 300 und etwa auf dem Niveau des mittleren Temperaturniveaus von 1961 bis 1990. Es folgte die Kaltzeit des Dark Age von 300 bis 800, die Mittelalterliche Warmzeit von 800 bis 1300 sowie die Kleine Eiszeit von 1300 bis 1900 treten klar hervor. Letzterer folgte im 20. Jahrhundert eine rapide Erwärmung. Die höchsten Mitteltemperaturen in der Rekonstruktion zeigen ich Mitte bis Ende des 20. Jahrhunderts, die niedrigsten Ende des 17. Jahrhunderts. Dekadische Mittelwerte der Temperatur scheinen während substantieller Zeiträume der Römischen und der Mittelalterlichen Warmzeit höher gelegen zu haben als im Zeitraum 1961 bis 1990. Die Temperatur der letzten beiden Jahrzehnte jedoch liegt möglicherweise höher denn je während der letzten zwei Jahrtausende. Allerdings zeigt sich dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solche beispiellose Erwärmung, aber wir müssen berücksichtigen, dass nur wenige, in die Rekonstruktion eingegangene Reihen bis in die neunziger Jahre reichen. Nichtsdestotrotz ist eine sehr sorgfältige Interpretation des Wärmeniveaus seit dem Jahr 1990 im Vergleich zu den wärmsten Zeiten der Römischen und der Mittelalterlichen Warmzeit dringend geboten.

(…)

Die hier rekonstruierte Amplitude der Temperatur-Variabilität über Multi-Jahrzehnte und Jahrhunderte sollte als das Minimum der wahren Variabilität jener zeitlichen Maßstäbe betrachtet werden.

Ljungqvist 2010

Abbildung 9: Ljungqvist zeigte, dass die Moderne Warmzeit nicht eindeutig über die Bandbreite der natürlichen Variabilität hinaus gegangen ist. Die dick gestrichelte schwarze Linie repräsentiert die instrumentelle Aufzeichnung. Ich habe die roten Linien hinzugefügt, um die Fehlerbandbreite der Proxy-Daten relativ zu den instrumentellen Daten zu reflektieren. Ältere Daten stehen links.

Direkte Vergleiche der modernen instrumentellen Aufzeichnungen mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung aufweisen. Die Proxy-Daten zeigen das „Minimum der wahren Variabilität über jene Zeiträume“. Die instrumentellen Daten beschreiben es irgendwie näher der tatsächlichen Variabilität.

Den Proxy-Daten fehlt die Komponente hoher Frequenzen des Signals. Wird die Hochfrequenz-Komponente eines Signals herausgefiltert, dämpft das die Amplitude.

Abbildung 10: Sinuswelle mit einer 10-pt smoothing average. Man beachte die Reduktion der Amplitude infolge Filterung und Glättung (Wood for Trees). Ältere Daten links.

Der direkte Vergleich von instrumentellen Daten mit Proxy-Daten wird sogar noch problematischer, wenn man die zeitliche Länge der Aufzeichnung über 2000 Jahre hinaus verlängert.

Abbildung 11: Klima-Rekonstruktion des Holozän, Andy May WUWT. Ältere Daten sind rechts.

Die vermeintlich „viertwärmsten Jahre jemals“ ereigneten sich etwa 300 Jahre nach dem kältesten Jahrhundert der vergangenen 100 Jahrhunderte. Dies kann nur von jemandem als „Klimakrise“ oder „Klima-Notstand“ bezeichnet werden, der absolut ignorant ist gegenüber grundlegenden wissenschaftlichen Prinzipien, besonders gegenüber Quaternary Geology und Signal-Verarbeitung.

Je zeitlich länger die Aufzeichnung der Rekonstruktion ist, umso wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxys konsistent ist mit jüngeren Proxys. Die zeitliche Auflösung ist eine Funktion des Stichproben-Intervalls.

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen die Auswahl der Proxys ist. Wie in diesen Beiträgen dokumentiert sind etwa 73 Proxys beeinflusst von der Art der Auflösung, welche die signifikanten Klimaereignisse verschleiert. Einige sind auch beeinflusst durch lokale Bedingungen, die keine regionale oder globale Bedeutung haben. Andere überdenken kurze Zeiträume, die nicht die beiden bedeutendsten Klimaereignisse des Holozäns abdecken, nämlich die Kleine Eiszeit und das Holozän-Klimaoptimum.

(…)

Wir haben auch Proxys über lange Zeiträume (mehr als 130 Jahre) außen vor gelassen, weil sie dazu neigen, die Auflösung der Rekonstruktion zu reduzieren und wichtige Details heraus zu mitteln. Der kürzeste Klimazyklus dauert grob 61 bis 64 Jahre, die so genannte „stadium wave“, und wir wollen versuchen, möglichst genau dessen Einfluss zu erkennen. In dieser einfachen Rekonstruktion haben wir versucht, all dem Rechnung zu tragen.

Andy May WUWT

Dies ist eine Tabelle aller „untersuchten“ Proxys. Sie haben eine weitgehend konsistente zeitliche Auflösung. Es sind lange Zeitreihen und überdecken sowohl das Holozän-Klimaoptimum als auch die Kleine Eiszeit, also die wärmste und die kälteste Klimaphase im Holozän. Andys Proxys haben eine mittlere Auflösung von 75 Jahren und eine mittlere Länge der Aufzeichnung von 11.697 Jahren mit geringen Standardabweichungen. Es gibt keinen signifikanten Trend einer abnehmenden Auflösung mit der Zeit, wie es bei den meisten Proxy-Rekonstruktionen der Fall ist.

Abbildung 12: Zeitliche Auflösung (linke Achse) und Länge der Aufzeichnung (rechte Achse). Ältere Daten sind rechts.

Andys Rekonstruktion zeigt, dass der Tiefpunkt der Kleinen Eiszeit die kälteste Klimaperiode des Holozäns war. Dies ist ein Merkmal jeder Nicht-Hockeyschläger-Rekonstruktion und sogar der meisten Hockeyschläger-Rekonstruktionen einschließlich der reihenweise falschen Rekonstruktion von Marcott et al., 2013. Sie zeigt des Weiteren, dass die Moderne Warmzeit relativ zum allgegenwärtigen Klimasignal des Holozäns ziemlich unscheinbar daherkommt (Bohling &Davis, 2001).

Falls man die Übersicht der Referenzen der Rekonstruktionen öffnet und auf die rechts außen liegende Spalte schaut (Kommentare), liest man die Anmerkungen von Andy, ob das Proxy „herangezogen“ wurde, und er erklärt, warum es zurückgewiesen wurde. Die drei Hauptgründe für die Zurückweisung eines Proxys waren:

1. Grobe Auflösung (gekennzeichnet als „Auflösung zu groß“)

2. Nicht alt genug

3. Nicht jung genug

Andy hätte die instrumentelle Aufzeichnung bis zum Ende hiervon verbinden und einen Hockeyschläger erzeugen können … Aber das wäre außerhalb akademischer oder regierungsamtlicher „Wissenschaft“ betrügerisch. Es gleicht dem Zusammenfügen eines Bohrkerns mit einer seismischen Linie und es dann eine Anomalie nennt.

Hinsichtlich Marcott stellen die Autoren fest, dass ihre Holozän-Rekonstruktion nicht direkt verglichen werden können mit instrumentellen Daten infolge der Unterschiede bzgl. der Auflösung … aber sie tun es natürlich trotzdem.

Frage: Was sagen Rekonstruktionen der Paläotemperatur über den Temperaturverlauf der letzten 100 Jahre?

Antwort: Unsere Rekonstruktion der globalen Paläotemperatur enthält u. A. den so genannten „Uptick“ der Temperaturen während des 20. Jahrhunderts. Allerdings stellen wir in der Studie klar, dass dieses Einzelereignis von kürzerer Dauer ist als die inhärente Glättung bei unserem statistischen Mittelungsverfahren, und dieses basiert lediglich auf nur wenigen verfügbaren Paläo-Rekonstruktionen des von uns verwendeten Typs. Folglich ist der Anteil unserer Paläotemperaturwerte nicht statistisch robust und kann nicht als repräsentativ angesehen werden für globale Temperaturänderungen. Darum ist sie auch nicht die Grundlage unserer Schlussfolgerungen. Unsere primären Ergebnisse basieren auf einem Vergleich der längerfristigen Änderungen der Paläotemperatur aus unserer Studie mit den gut dokumentierten Temperaturänderungen, zu welchen es im vorigen Jahrhundert gekommen war, wie durch instrumentelle Aufzeichnungen dokumentiert. Obwohl es nicht Teil unserer Studie ist, wurden hoch aufgelöste Daten der letzten ~130 Jahre aus verschiedenen globalen Archiven zusammengestellt. Diese bestätigen den allgemeinen Erwärmungstrend über dieses Zeitintervall (Anderson, D.M. et al., 2013, Geophysical Research Letters, v. 40, p. 189-193; http://www.agu.org/journals/pip/gl/2012GL054271-pip.pdf).

Frage: Ist die Rate des Temperaturanstiegs der letzten 100 Jahre höher als zu irgendeiner anderen Zeit während der letzten 11.300 Jahre?

Antwort: Unsere Studie hat sich nicht direkt mit dieser Frage befasst, weil die in unserer Studie herangezogenen Aufzeichnungen der Paläotemperatur im Mittel eine zeitliche Auflösung von etwa 120 Jahren haben. Dies erlaubt keine Untersuchungen hinsichtlich der Änderungsraten innerhalb eines Jahrhunderts. Andere Faktoren tragen ebenfalls zur Glättung der Proxytemperatur-Signale bei, welche in vielen von uns verwendeten Aufzeichnungen stecken. Dazu gehören etwa Organismen im Schlamm am Grund der Tiefsee sowie chronologische Unsicherheiten in den Proxy-Aufzeichnungen, welche dazu neigen, die Signale zu glätten, wenn man sie in eine global gemittelte Rekonstruktion eingehen lässt. Wir wiesen nach, dass keine Temperaturvariabilität in unserer Rekonstruktion steckt mit Zyklen kürzer als 300 Jahre. 50% sind enthalten im Zeitmaßstab von 1000 Jahren, und fast alle sind enthalten in Perioden über 2000 Jahre oder mehr. Unsere Monte-Carlo-Analyse trägt diesen Quellen von Unsicherheit Rechnung, um eine belastbare, (wenngleich geglättete) globale Aufzeichnung zu erhalten. Jedwede geringe „Upticks“ oder „Downticks“ der Temperatur, die kürzer sind als einige hundert Jahre in unserer Zusammenstellung paläoklimatischer Daten, sind nicht belastbar, wie in unserer Studie festgestellt.

Real Climate

Falls der „Anteil im 20. Jahrhundert unserer Paläotemperaturen nicht statistisch robust ist“ … Warum fand das dann überhaupt Eingang in die Veröffentlichung? Die modernen instrumentellen Aufzeichnungen wären ein einzelner Datenpunkt bei der Auflösung von Marcotts Rekonstruktion.

Warum ist das von Bedeutung?

Was also würde es bedeuten, falls die Rekonstruktionen eine größere (Esper et al., 2002; Pollack and Smerdon, 2004; Moberg et al., 2005) oder geringere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude zeigen? Wir zeigen, dass Ersteres, also eine verstärkte Variabilität während vorindustriellen Zeiten zu einer Umverteilung des Gewichtes hin zu der Rolle natürlicher Faktoren bzgl. des Antriebs von Temperaturänderungen, den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst. Falls das der Fall sein sollte, wären Übereinkommen wie das Kyoto-Protokoll mit der Absicht, die Emissionen anthropogener Treibhausgase zu reduzieren, weniger effektiv als gedacht.

Esper et al. 2005

Es ist von Bedeutung, weil die einzige Möglichkeit, instrumentelle Daten direkt mit vorindustriellen Proxy-Daten zu vergleichen, eine Filterung der instrumentellen Daten auf die Auflösung der Proxy-Daten zu bringen. Dies ergibt Klima-Rekonstruktionen mit „verstärkter Variabilität in vorindustrieller Zeit“ und „verleiht der Rolle natürlicher Antriebe bzgl. Temperaturänderungen größeres Gewicht, was den Einfluss anthropogener Emissionen natürlich zurückdrängt und prophezeite Zukunftsszenarien beeinflusst“.

Es ist von Bedeutung, weil die Befürworter des Anthropozän als geologische Epoche sich auf den Marcott’schen Hockeyschläger stützen.

Abbildung 13: Lauft weg! Das Anthropozän ist über uns gekommen!!! Ältere Daten stehen links.

Es ist von Bedeutung, weil Hockeyschläger bemüht werden, um politische Änderungen zu rechtfertigen, Kohlenstoff-Steuern zu erheben und die individuelle Freiheit und den Wohlstand zu zerschlagen.

Viele der vermeintlichen Beweise, dass jüngste Klimaänderungen von den Normen des Holozäns abweichen, sind genauso konsistent wie das Ergebnis von Differenzen in der Auflösung von paläoklimatischen Daten und instrumentellen Aufzeichnungen.

References

Anklin, M., J. Schwander, B. Stauffer, J. Tschumi, A. Fuchs, J. M. Barnola, and D. Raynaud (1997), “CO2record between 40 and 8 kyr B.P. from the Greenland Ice Core Project ice core,” J. Geophys. Res., 102(C12), 26539–26545, doi: 10.1029/97JC00182.

Christiansen, B. and F.C. Ljungqvist. 2012. “The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability”. Climate of the Past, Vol. 8, pp. 765-786. www.clim-past.net/8/765/2012/ doi:10.5194/cp-8-765-2012

Davis, J. C., and G. C. Bohling. “The search for patterns in ice-core temperature curves. 2001, in L. C. Gerhard, W. E. Harrison, and B. M. Hanson, eds., Geological perspectives of global climate change, p. 213–229.

Esper, J., E.R. Cook, and F.H. Schweingruber. 2002.  “Low-Frequency Signals in Long Tree-Ring Chronologies for  Reconstructing Past Temperature Variability”.  Science, Volume 295, Number 5563, 22 March 2002.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Etheridge, D.M., L.P. Steele, R.L. Langenfelds, R.J. Francey, J.-M. Barnola and V.I. Morgan. 1998. “Historical CO2 records from the Law Dome DE08, DE08-2, and DSS ice cores”. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., U.S.A.

Finsinger, W. and F. Wagner-Cremer. “Stomatal-based inference models for reconstruction of atmospheric CO2 concentration: a method assessment using a calibration and validation approach”. The Holocene 19,5 (2009) pp. 757–764

Kouwenberg, LLR. 2004. “Application of conifer needles in the reconstruction of Holocene CO2 levels”. PhD Thesis. Laboratory of Palaeobotany and Palynology, University of Utrecht.

Ljungqvist, F.C. 2009. N. Hemisphere Extra-Tropics 2,000yr Decadal Temperature Reconstruction. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series # 2010-089. NOAA/NCDC Paleoclimatology Program, Boulder CO, USA.

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

Mann, Michael,  Zhihua Zhang, Malcolm K Hughes, Raymond Bradley, Sonya K Miller, Scott Rutherford, & Fenbiao Ni. (2008). “Proxy-based Reconstructions of Hemispheric and Global Surface Temperature Variations over the Past Two Millennia”. Proceedings of the National Academy of Sciences of the United States of America. 105. 13252-7. 10.1073/pnas.0805721105.

McElwain et al., 2002. “Stomatal evidence for a decline in atmospheric CO2 concentration during the Younger Dryas stadial: a comparison with Antarctic ice core records”. J. Quaternary Sci., Vol. 17 pp. 21–29. ISSN 0267-8179

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko & W. Karlén. 2005. “Highly variable Northern Hemisphere temperatures reconstructed from low-and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Van Hoof, Thomas, Karsten A. Kaspers, Friederike Wagner-Cremer, R.S.W. Wal, Wolfram Kürschner & Henk Visscher. (2005). “Atmospheric CO 2 during the 13th century AD: reconciliation of data from ice core measurements and stomatal frequency analysis”. Tellus B. 57. 10.3402/tellusb.v57i4.16555.

For additional references, see these Watts Up With That posts:

https://wattsupwiththat.com/2012/12/07/a-brief-history-of-atmospheric-carbon-dioxide-record-breaking/

https://wattsupwiththat.com/2017/03/28/breaking-hockey-sticks-antarctic-ice-core-edition/

https://wattsupwiththat.com/2017/06/09/a-holocene-temperature-reconstruction-part-4-the-global-reconstruction/

https://wattsupwiththat.com/2019/06/06/the-holocene-sea-level-highstand/

Link zu diesem Beitrag: https://wattsupwiththat.com/2019/06/25/resolution-and-hockey-sticks-part-1/