Milankovitch-Zyklen und Baumring-Proxys: Der Hockeyschläger im IPCC AR 6

Stephen McIntyre

Obwohl Klimawissenschaftler immer wieder behaupten, dass Fehler in ihren „Hockeyschläger“-Proxy-Rekonstruktionen keine Rolle spielen – dass es keine Rolle spielt, ob sie Daten auf dem Kopf stehend verwenden; dass es keine Rolle spielt, ob sie einzelne Reihen auswählen, je nachdem, ob sie im 20, Jahrhundert ansteigen; dass es keine Rolle spielt, wenn sie Reihen verwerfen, die nicht in die „richtige“ Richtung gehen („hide the decline“); dass es keine Rolle spielt, ob sie kontaminierte Daten oder beschädigte Kiefernzapfen verwendet haben; dass solche Fehler keine Rolle spielen, weil der Hockeystick selbst keine Rolle spielt – der IPCC bleibt süchtig nach Hockeyschlägern: Und siehe da, Abbildung 1a der neu aufgelegten Summary for Policymakers enthält – was sonst – ein Hockeystick-Diagramm. Wenn Sie Michael Manns Hockeystick schon für schlecht hielten, dann stellen Sie sich einen neu aufgelegten Hockeystick von neu aufgelegten Klimawissenschaftlern vor. Wie die Klimawissenschaftler sagen, ist es noch schlimmer, als wir dachten.

Seltsamerweise erscheint dieses führende Diagramm der Zusammenfassung der politischen Entscheidungsträger nicht im Bericht selbst. (Zumindest konnte ich es in Kapitel 2 nicht finden.) Es ist jedoch eindeutig das Ergebnis von PAGES2K Consortium (Nature 2019) und Kaufman et al (2020), die ich beide kurz auf Twitter kommentiert habe (siehe hier).

Es ist schwer zu sagen, wo man anfangen soll.

Der Gedanke/dieDefinition eines Temperatur-„Proxy“ ist, dass er eine Art lineare oder nahezu lineare Beziehung zur Temperatur hat, wobei die Fehler weißes Rauschen oder rotes Rauschen niedriger Ordnung sind. Mit anderen Worten: Wenn man sich eine Reihe von tatsächlichen Temperatur-„Proxies“ ansieht, würde man erwarten, dass die Reihen ziemlich ähnlich und konsistent aussehen.

Aber das ist nicht das, was man bei den vom IPCC verwendeten Daten sieht. Im IPCC-Bericht oder sogar in den zitierten Artikeln würde man das nie erfahren, denn die Autoren dieser Temperatur-Rekonstruktionen der letzten ein oder zwei Jahrtausende vermeiden es peinlich genau, die zugrunde liegenden Daten darzustellen. Für mit der Materie nicht vertraute Leser ist es schwer, die extreme Widersprüchlichkeit der zugrundeliegenden „Proxy“-Daten angesichts der vorgetäuschten Präzision des IPCC-Diagramms vollständig zu erfassen.

Viele der in diesem Beitrag besprochenen Reihen, einschließlich fast aller HS-förmigen Reihen, wurden bereits in Blogbeiträgen von Climate Audit (tag/pages2k) von vor 2, 5, 10 oder sogar 15 Jahren oder in Tweets von 2019 und 2020 (siehe hier) besprochen.

Die PAGES2019 ist keine „zufällige“ Auswahl von Proxies, sondern wurde anhand von Ex-post-Kriterien ausgewählt. Wie Rosanne d’Arrigo vor vielen Jahren vor dem NAS-Gremium erklärte: Wenn man Kirschkuchen machen will, muss man zuerst Kirschen pflücken.

Der PAGES2019-Datensatz besteht aus 257 Proxys, die aus dem vorherigen PAGES2017-Datensatz mit 692 Proxys ausgewählt wurden, der zuvor aus Tausenden von Proxyserien ausgewählt worden war, die von vielen Autoren im Laufe der Jahre gesammelt worden waren.

Um den Lesern einen Überblick über die zugrundeliegenden Daten – und nicht über das massierte Endprodukt – zu geben, habe ich drei Chargen von jeweils 11 zufällig ausgewählten Reihen aus PAGES2017, PAGES2019 und dann PAGES2019 nordamerikanischen Baumringen aufgezeichnet und dann jede Charge kommentiert. (Die Stichproben wurden mit der R-Formel sample(1:K, 11) ausgewählt, wobei K die Größe des Datensatzes ist, aus dem eine Stichprobe gezogen wird.) In jedem Fall gab es in der Regel Serien, die ich bereits untersucht hatte, sowie zahlreiche nicht beschreibbare Serien, die bemerkenswert und wichtig sind, weil die meisten Proxies nicht beschreibbar sind und man dies sehen muss, um sie zu verstehen.

Dieser Beitrag wird noch einige Tage in Arbeit sein, da ich einige Abschnitte zu speziellen Themen habe, die ich versuchen werde, nach und nach hinzuzufügen, wenn ich Zeit habe.

Eine erste Reihe: PAGES2017 Proxies

Zur ersten Veranschaulichung sehen Sie unten eine Stichprobe von 11 PAGES2017-Reihen. Die auf PAGES2019 übertragenen Reihen sind in blau dargestellt. Als Referenz ist die IPCC-Kurve in rot dargestellt. Wie Sie unschwer erkennen können, sind die meisten der Reihen unscheinbar und kurz. Nur eine Reihe in dieser Stichprobe (Cape Ghir temperature alkenones) hat die Form eines Hockeyschlägers, aber sie geht nach unten:

Die oben gezeigte Kap-Ghir-Reihe ist in Grad Celsius angegeben, hat aber ein offensichtliches Problem: Sie geht nach unten. (Siehe frühere Climate Audit-Diskussion der Cape Ghir-Alkenonreihe hier). Und dies ist kein Fall, in dem die rohe Proxy-Messung eine umgekehrte Beziehung zur Temperatur hat (z. B. Korallen-Sr oder Korallen-d18O), sondern ein Fall, in dem die Temperaturschätzung aus dem Proxy nach unten geht. Alkenone sind ein sehr einzigartiger Näherungswert, da es allgemein anerkannte Formeln für die direkte Umrechnung von Alkenon-Messungen in Grad Celsius gibt. Alkenone werden häufig zur Schätzung der Ozeantemperatur in der Tiefsee verwendet und liefern konsistente Schätzungen für Millionen von Jahren. Dies ist etwas völlig anderes als bei Baumringmessungen, bei denen die Ringbreiten zunächst an das Alter und den Standort angepasst werden müssen, bevor versucht wird, eine lokale Ad-hoc-Formel zu entwickeln, um die lokale Temperatur anhand einer Art Durchschnitt der Ringbreiten zu schätzen.

Warum genau die lokalen Temperaturen am Kap Ghir (vor der Küste Marokkos) gesunken sind, ist ein Rätsel. Anstatt dieses Rätsel zu lösen, stellen Neukom und Co. die Reihen einfach auf den Kopf und folgen damit dem Beispiel von Upside Down* Mann, indem sie die Reihen nach ihrer Korrelation mit der instrumentellen Zieltemperatur ausrichten, sogar in ihrer „CPS“-Rekonstruktion – eine Technik, die normalerweise resistent gegen opportunistisches Umdrehen von Proxies ist, um die HS-Nähe einer endgültigen Rekonstruktion zu verbessern.

[*upside down = verkehrt herum, auf dem Kopf stehend]

Beachten Sie, was Neukom et al. mit ihrer „CPS“-Methode gemacht haben:

CPS ist (meines Wissens nach) in allen früheren Rekonstruktionen ein Mittelwert aus skalierten Daten, der ex ante an bekannten Eigenschaften des Proxys orientiert wurde. Das heißt, es wird nicht einfach eine Alkenon-Temperaturschätzung umkippen lassen, weil sie in die falsche Richtung geht. Aber diese heilsame Eigenschaft wird in Neukoms verfälschter Implementierung von CPS nicht beibehalten – eine Verfälschung, der die Gutachter eigentlich hätten widerstehen müssen. PAGES2K erstellte Temperaturrekonstruktionen mit sieben verschiedenen Methoden, die alle zu ähnlichen Ergebnissen wie CPS führten – was stark darauf hindeutet, dass diese anderen Methoden auch Serien wie Cape Ghir verfälschen.

Eine zweite Reihe: PAGES2019-Proxies

Hier ist eine zweite Zufallsstichprobe von Proxies, dieses Mal alle aus der zusätzlich überprüften PAGES2019-Untergruppe. Werfen Sie einen Blick darauf, Kommentare unten.

Es ist nicht so, dass PAGES2K ein Kompositum aus 257 Serien erstellt hat, die zwei Jahrtausende lang sind und alle oder die Mehrheit eine HS-Form haben. Eine Reihe in dieser Stichprobe sieht dem IPCC-Stick sehr ähnlich und wird weiter unten ausführlich diskutiert, aber die anderen sehen ganz anders aus.

Vier der Reihen in der Stichprobe sind sehr kurz – drei von ihnen sind sogar kürzer als die instrumentelle Aufzeichnung. Dabei handelt es sich um Korallen-Sr- oder Korallen-d18O-Reihen, die 25 % des PAGES2019-Datensatzes ausmachen. Die oben dargestellten extrem kurzen Aufzeichnungen sind typisch, ja fast universell für diese Klasse von Proxy-Daten. Sie weisen einen ausgeprägten Trend in der instrumentellen Periode auf. Dies steht im Gegensatz zu dem fehlenden Trend, den man bei den beiden langen Proxies in der mittleren Spalte oben sieht – einer Baumringreihe von Mt Read, Tasmanien (auch in MBH98 verwendet) und einer Eiskernreihe von Fisher aus dem Jahr 1983 von der Devon Ice Cap auf der Baffininsel (auch verfügbar für Multiproxy-Studien der 1990er Jahre).

Die kurzen Korallenserien liefern keine Informationen zu den mittelalterlichen und früheren Perioden, die man mit der modernen Periode zu vergleichen versucht. Was ist also ihre Funktion? Tragen sie etwas anderes bei, als den unscheinbaren längeren Serien einen Schnurrbart aufzusetzen?

Die Baumringreihen in dieser Stichprobe sind eher kurz; die Screening-Verfahren haben eher konzentrierte Reihen mit leichten Anstiegen. (Die Streifenrinden-Borstenzapfen-Chronologien, die im Hockeystick von Mann et al. so prominent waren, werden in PAGES2019 weiterhin verwendet – wie unten besprochen). Ich habe die Serie in der linken Spalte mit dem großen Anstieg (Asi_MUSPIG aka paki033) in einem Tweet-Thread 2019 hier diskutiert. Ich habe die zugrundeliegenden Ringbreitenmessungen bei der NOAA ausfindig gemacht und die Baumring-„Chronologie“ mit der Standardmethodik neu berechnet – siehe unten. Die hochfrequenten Details stimmen überein, was zeigt, dass die zugrunde liegenden Messdaten äquivalent sind. Die Chronologie der Originalautoren ist bei der NOAA nicht archiviert: Wie ist es PAGES2K also gelungen, einen solchen Hockeyschläger zu erhalten? Ich habe keine Ahnung.

Die „interessanteste“ Reihe in dieser Stichprobe ist die Bohrlochtemperatur-Rekonstruktion, die der späteren IPCC-Rekonstruktion so unheimlich ähnlich ist. Zufälligerweise (oder auch nicht) habe ich über diese Bohrlochtemperatur-Rekonstruktion (von WAIS Divide, Antarktis) im Februar 2019 geschrieben, ein paar Monate vor der Veröffentlichung von PAGES 2019 – siehe hier; scrollen Sie nach unten – für eine ausführlichere Analyse.

Ich habe in mehreren Beiträgen über die Mathematik der Bohrloch-Inversions-Berechnungen geschrieben, die vorgeben, die Temperaturen für Tausende von Jahren in der Vergangenheit anhand der heute im Bohrloch gemessenen Temperaturen zu schätzen. Diese Berechnungen erfordern die Inversion einer multi-kollinearen Matrix (mit einer Determinante nahe 0). Meiner Meinung nach sind fast alle Details, über die Fachleute schwadronieren, eine Art Chladni-Muster-Artefakt.

Aber das ist eine andere Geschichte. Hier war das Problem viel seltsamer. Einige Jahre zuvor war es mir (auf Umwegen) gelungen, eine Kopie des Codes zu erhalten, der zur Berechnung dieser Bohrlochinversion verwendet wurde (die nirgendwo archiviert ist). Der Code zeigte, dass die obersten 15 Meter des Bohrkerns aus der Berechnung gestrichen worden waren.

[Hervorhebung im Original]

Ich hatte ERHEBLICHE Schwierigkeiten, die zugrundeliegenden Bohrlochtemperaturen für einige berühmte Reihen zu bekommen. (Das NAS-Panel von 2006 zitierte ein solches Ergebnis, aber der ursprüngliche Autor {ein Mitarbeiter der US-Regierung} weigerte sich, die Daten zur Verfügung zu stellen, und meines Wissens sind sie nach wie vor nicht verfügbar). In diesem Fall waren die zugrunde liegenden und archivierten Bohrlochtemperaturen nebst deren Werten gelöscht worden. Unnötig zu erwähnen, dass sie verloren gegangen sind. Eine Inversion unter Verwendung aller Daten hätte nicht zu dem beeindruckenden Hockeystick im PAGES2019-Datensatz geführt, sondern zu einem erheblichen Rückgang in jüngster Zeit.

Na super, ein weiteres Beispiel für „hide the decline“.

Fairerweise muss man sagen, dass es, wie ich in einem früheren Beitrag feststellte, im oberen Teil des antarktischen Eisschildes dramatische jahreszeitliche Temperaturschwankungen gibt, die das ohnehin schon schwierige (und wahrscheinlich unlösbare) Problem der Inversion noch unlösbarer machen. In meinem Beitrag vom Februar 2019 habe ich ein Diagramm von van Ommen et al. (1999) gezeigt, das die dramatischen Veränderungen der Temperatur im Bohrloch im Laufe der Jahreszeiten darstellt: Es lässt sich eine Art gedämpftes Sinusmuster erkennen. In den obersten 15 Metern des Bohrkerns dominieren die saisonalen Veränderungen.

Beachten Sie, dass die Klinge auf dem Hockeyschläger in dieser IPCC-Reihe vollständig von der Wahl von 15 Metern als Grenzwert für die Bohrlochinversion abhängt. Bei einer Wahl von 20 Metern wäre die Klinge wahrscheinlich gänzlich verschwunden.

Die Tatsache, dass der oberste Teil des Bohrkerns wegen saisonaler Effekte ausgeschlossen werden muss, führt zu einer seltsamen Ironie: Die Schichten in 15 Metern Tiefe bei WAIS stammen aus den 1960er Jahren. Das IPCC hat sich also auf eine Reihe von Daten gestützt, die vorgeben, die Temperatur bis 2007 zu rekonstruieren, ohne jedoch die Eiskerne aus der Zeit zwischen 1965 und 2007 zu verwenden. Die Berechnung erfolgt ausschließlich anhand von Eiskernschichten aus der Zeit vor den 1960er Jahren. Hält das jemand für zuverlässig? Ich nicht.

Darüber hinaus ergibt die Rekonstruktion der WAIS-Divide-Bohrlochtemperatur ein völlig anderes Ergebnis als die weithin replizierten und gut verstandenen d18O-Isotopenreihen.

In Anbetracht der Fragen und Mängel im Zusammenhang mit der WAIS-Bohrlochinversionsreihe ist es absurd, dass diese Reihe (noch dazu eine Singleton-Reihe) in einem politikrelevanten Dokument verwendet werden soll. Die Tatsache, dass das endgültige IPCC-Diagramm dieser Müllreihe so ähnlich ist, wirft die Frage auf, was unter der Haube der multivariaten Berechnungen vor sich geht.

Eine dritte Reihe: PAGES2019 Nordamerikanische Baumringe

Nordamerikanische Baumringe (einschließlich einiger arktischer Serien) machen ~25% der PAGES2019 Proxies aus. Hier eine zufällige Auswahl:

Die meisten sind kurz und eher unscheinbar – nicht wie das endgültige IPCC-Diagramm.

Es gibt eine Reihe mit einem riesigen Hockeyschläger: Mackenzie Delta (Porter 2013); und zwei Reihen („GB [Great Basin]“ und nv512) mit auffälligen Schlussanstiegen. Aufmerksame Leser haben vielleicht schon etwas von dieser Geschichte mitbekommen.

Ich habe den Mackenzie Delta Super-Stick von Porter et al. (2013), einen Neuzugang in der Hockeystick-Fertigungstechnik, im Juli 2019 hier auf Twitter besprochen. Er stammt aus dem kanadischen Yukon, einem Gebiet, das in einer Studie von d’Arrigo et al. aus dem Jahr 2004 als typischer Ort für das klassische „Divergenzproblem“ galt – die Ringbreiten nehmen ab, während die Temperaturen steigen. Wie ist es Porter et al. also gelungen, einen Super-Stick zu finden, der Jacoby und d’Arrigo entgangen war, die seit langem nach Hockeyschlägern in Baumringdaten suchen und sich nicht scheuen, Kirschen zu pflücken, um Kirschkuchen zu backen?

Sie trieben „hide the decline“ auf eine Weise auf die Spitze, die von früheren Praktikern dieser dunklen Kunst nie in Erwägung gezogen worden war. Anstatt den Rückgang im Endprodukt zu verbergen, taten sie dies für einzelne Bäume: Wie in dem zugrundeliegenden Artikel erläutert, schlossen sie die „abweichenden Sequenzen“ einzelner Bäume aus, die die Frechheit besaßen, in den letzten Jahren ein rückläufiges Wachstum aufzuweisen. Selbst Briffa hätte niemals solch radikale Maßnahmen in Erwägung gezogen.

Fairerweise muss man sagen, dass der ursprüngliche Artikel von Porter et al. sowohl die tatsächliche (nicht beschreibende) Chronologie aller Bäume als auch den Superstick zeigte, der sich aus „hide the decline“ bei einzelnen Bäumen ergab: Die Entscheidung, den falschen Superstick zu verwenden, liegt bei Neukom und PAGES2019.

Stripbark Bristlecone Chronologien

Wie oben erwähnt, werden sich aufmerksame Leser an die Kennung nv512 erinnern. Es handelt sich dabei um eine der klassischen Graybill Stripbark BristleconeChronologien (Pearl Peak), von der wir beobachtet hatten, dass sie sowohl die MBH98 PC1 als auch die endgültige MBH98 Rekonstruktion dominiert. Sie (und andere wichtige Stripbark-Standorte) wurden in McIntyre und McKitrick (2005 GRL) Tabelle 1 aufgeführt:

Die Leser werden sich auch daran erinnern, dass das NAS-Gremium 2006 empfohlen hat, „Stripbark“-Chronologien bei Temperaturrekonstruktionen zu „vermeiden“. Obwohl die Klimagemeinschaft erklärt hat, die Empfehlungen des NAS-Gremiums umzusetzen, sind sie süchtig nach Stripbark-Chronologien, deren Eigenschaften gut bekannt sind. Fünf verschiedene PAGES2019-Serien verwenden Stripbark-Bristlecones (drei davon aus den ursprünglichen Graybill-Versionen): nv512 (Pearl Peak); nv513 (Mount Washington); ca529 (Timber Gap Upper); SFP (eine Aktualisierung der San Francisco Peaks, die az510 einbezieht) und GB (ein Verbund aus Pearl Peak, Mount Washington und Sheep Mountain, der sowohl Graybill- als auch aktualisierte Informationen verwendet).

2018 habe ich untersucht, wie sich die nordamerikanischen Baumringnetzwerke seit MBH98 verändert haben. Die einzige Konstante war die Abhängigkeit der Paläoklimatologen von Stripbark-Chronologien – ein Phänomen, das ich schon lange vor Climategate kommentiert hatte (unter Berufung auf Clapton et al. und Paeffgen et al.), sehr zum Ärger von Dendros, aber der Kommentar bleibt heute genauso wahr wie damals.

Conclusion

Viele dieser Probleme habe ich bereits im Juli 2019 erörtert, nur wenige Tage nach der Veröffentlichung des zugrunde liegenden Artikels (siehe hier). Ich erwarte zwar nicht unbedingt, dass die Rezensenten des IPCC meinen Twitter-Feed aufmerksam verfolgen, aber man kann sicherlich davon ausgehen, dass die Klimawissenschaftler des IPCC, die sich hauptberuflich mit diesen Themen befassen, kompetent genug sind, um Dinge zu bemerken, die ich an meinem ersten Tag, an dem ich mir PAGES2019 ansah, beobachten konnte. Aber ihre Blindheit ist immer wieder erstaunlich.

Link: https://climateaudit.org/2021/08/11/the-ipcc-ar6-hockeystick/

Übersetzt von Christian Freuer für das EIKE

 




Peak Oil – Fakten und Fiktionen

Rud Istvan

Ich habe mich entschlossen, diesen möglichen Gastbeitrag zu verfassen, der auf meinen drei E-Books basiert (die alle sehr günstig auf iBooks und Amazon Kindle erhältlich sind), weil Neulingsposter MI auf WUWT nicht verschwinden will und weiterhin OT falsches Peak-Oil-Zeug postet, das teilweise auf seinen Blog verweist, während er auf meine verschiedenen Kommentare zu ihm nicht antwortet. Ich kann mit Sicherheit niemanden irgendwo hin verweisen, auch nicht auf meine veröffentlichten eBooks. Hier ist also eine einfache WUWT-Zusammenfassung von „Peak Oil“-Fakten, kostenlos, aus diesen Büchern. Dave Middleton möge mir die möglichen Detailfehler des geologischen Laien in dem hier dargestellten Gesamtbild verzeihen, für das er sicherlich bessere Mittelstandskenntnisse hat als ich. Außerdem weiß ich aus früheren Kommentaren, dass hier seit Jahren einige mitlesen, die glauben, es gäbe kein solches Peak Oil-Ding. So wie es auch kein GHE oder kein ECS gibt. Dieser Beitrag richtet sich hauptsächlich an diejenigen, die das immer noch nicht glauben, zusätzlich zu MI.

Peak Oil

Irgendwann muss es ihn geben, denn kaum jemand behauptet, Öl sei kein fossiler Brennstoff.  Irgendwann muss also die derzeitige rasche Förderung alle früheren langsamen Anhäufungen übersteigen, so dass die Jahresproduktion irgendwann einen Höhepunkt erreicht. Die beiden abiotischen Öl-„Hypothesen“ (Gold 2001 und Ukraine 2011) sind beide objektiv widerlegt worden. Es bleibt nur noch die Frage, wann der Höhepunkt der fossilen Ölproduktion erreicht wird und wie stark der Rückgang der Produktion nach dem Höhepunkt ausfallen wird. Diese einfachen Fragen stehen in direktem Zusammenhang mit zwei nicht so einfachen Fragen. Erstens: Wie viel fossiles Öl muss noch entdeckt werden? Und zweitens, wie viel davon kann sinnvoll gefördert werden? Für die zweite Frage gibt es zwei weitere Unterfragen: zu welchem Preis; und alles um jeden Preis? Auf diese Fragen gehe ich hier nicht ein.

Modelle zur Berechnung von Peak Oil

Es gibt drei grundlegende statistische Modellierungs-Verfahren zur Schätzung dieses fast sicheren zukünftigen Höhepunkts der Entdeckungen von fossilem Öl. Die bekannteste ist die von Hubbert für die USA unter Verwendung einer symmetrischen logistischen Wahrscheinlichkeitskurve (fat tail). Für das konventionelle US-Öl lag er ungefähr richtig, für alles andere falsch. Es gibt auch die Probit-Transformation und das hyperbolische Creaming-Curve-Verfahren für jedes Becken, wobei letztere unten am Beispiel der Nordsee erläutert wird. (Alle diese Methoden werden in meinen E-Books erklärt, aber nicht hier.)

Die Probleme mit Hubberts ursprünglich angenommener Logistikkurven-Methode bestehen aus verschiedenen Teilen.

Erstens ist die konventionelle Kurve der Ölfeldförderung NICHT seine Logistikkurve. Sie hat dank der sekundären und tertiären Ölförderung einen langen fetten Schwanz. Technisch gesehen handelt es sich um eine Gamma-Funktionskurve. Ein gutes Beispiel ist der US-North Slope.

Zweitens galt seine Hypothese nur für „konventionelles Öl“, definiert als Viskosität API>10, das aus einem Reservoir mit >5% Porosität und einer Permeabilität >10 Millidarcies gefördert wird. Das bedeutet, dass sämtliches „Schweröl“, wie z. B. in den kanadischen „Teersanden“ oder im venezolanischen Orinoco (größte Schwerölreserve der Welt), und auch das gesamte neu gefrackte „dichte“ Schieferöl unberücksichtigt bleiben.

Drittens berücksichtigte seine Schätzung definitionsgemäß überhaupt nicht die späteren technologischen Fortschritte beim Fracking von Schieferöl (Tight Oil). Aber auch das Potenzial von gefracktem Schieferöl wurde grob überschätzt, wie ich in meinem E-Book „Blowing Smoke“ über Matroschka-Reserven und Reserven aufzeige. Nachfolgend ein Beispiel dafür, warum die Monterey-Schieferölreserve von offiziell über 15 Billionen Barrel laut EIA auf fast nichts laut USGS Monterey Shale ‚fold‘ Revision gesunken ist:

Gaviota State Park an der felsigen Küste des Pazifiks in Goleta, Santa Barbara County, Kalifornien

Die Plattentektonik hat im Monterey Shale nichts übrig gelassen, um horizontal zu bohren/zu fracken…. ein kleines geologisches Problem bei der horizontalen Bohrung/Frack-Ölförderung.

Aber wenn man all diese Dinge zusammenzählt und sie dann im Detail durchrechnet (in meinen ebooks), erhält man immer noch ungefähr die folgenden möglichen Ölförderspitzen aus der (immer noch falschen) ursprünglichen Hubbert-Logistikkurve:

Also ja, etwa 2023-2025 wird mit Sicherheit der Höhepunkt der Ölförderung erreicht sein.

Dies lässt sich auch auf andere Weise zeigen, zusammengefasst in den ebooks. Bei konventionellem Öl wurde in einer IEA-Erhebung von 2008 über die weltweit größten, etwa 800 produzierenden Ölfelder ein jährlicher Produktionsrückgang von etwa 5,7 % gemessen. Diese etwa 800 Felder machten in jenem Jahr etwa 85 % der gesamten konventionellen Ölproduktion aus. Die konventionelle Ölförderung erreichte also laut IEA um 2005 ihren Höhepunkt, was nahe an den verschiedenen Prognosen nach Hubbert liegt. Es gibt keine Möglichkeit, dass unkonventionelles Öl (angesichts der geringen Rückgewinnungsfaktoren) dies für viele Jahrzehnte in der Zukunft ausgleichen kann.

Aber aufgrund der Gammakurven für die Erschöpfung der Ölfelder wird es kein „plötzliches“ Ende der Welt geben, noch nicht einmal annähernd, wie es fälschlicherweise von diesem Hubbert-Logistikkurven-Peak-Oil-Modell oder von dem neuen Poster MI dargestellt wird. Es wird nur ein langsamer Rückgang sein, der vielleicht von Nahrungsmitteln überholt wird, selbst wenn es virtuelles Wasser gibt. Wie beim Klimawandel steckt der Teufel im Detail.

Link: https://wattsupwiththat.com/2021/08/12/peak-oil-facts-and-fictions/

Übersetzt von Christian Freuer für das EIKE

 




Wie Klima-Szenarien den Kontakt zur Realität verloren haben

Auszüge aus einem Beitrag von Roger Pielke Jr. und Justin Ritchie

Ein Versagen der Selbstkorrektur in der Wissenschaft hat die Fähigkeit der Klimawissenschaft beeinträchtigt, plausible Ansichten über unsere gemeinsame Zukunft zu vermitteln.

Die Auszüge stammen von hier und wurden von WUWT zusammengestellt.

Die Integrität der Wissenschaft hängt von ihrer Fähigkeit ab, ein immer zuverlässigeres Bild davon zu vermitteln, wie die Welt funktioniert. In den letzten zehn Jahren sind ernsthafte Bedrohungen dieser Integrität zutage getreten. Die Erwartung, dass sich die Wissenschaft von Natur aus selbst korrigiert und dass sie sich kumulativ und progressiv von falschen Überzeugungen weg und hin zur Wahrheit bewegt, wurde in zahlreichen Bereichen in Frage gestellt – darunter Krebsforschung, Neurowissenschaften, Hydrologie, Kosmologie und Wirtschaft – haben doch Beobachter festgestellt, dass viele veröffentlichte Ergebnisse von schlechter Qualität sind, systembedingten Verzerrungen unterliegen oder nicht reproduzierbar sind.

Ein besonders beunruhigendes Beispiel aus den biomedizinischen Wissenschaften: Eine Literaturübersicht aus dem Jahr 2015 ergab, dass fast 900 von Experten begutachtete Veröffentlichungen, in denen über Studien zu einer vermeintlichen Brustkrebszelllinie berichtet wurde, in Wirklichkeit auf einer falsch identifizierten Hautkrebslinie basierten. Schlimmer noch, fast 250 dieser Studien wurden sogar noch veröffentlicht, nachdem die falsche Zelllinie 2007 endgültig identifiziert worden war. Unsere flüchtige Suche bei Google Scholar zeigt, dass Forscher die Hautkrebszelllinie immer noch in Brustkrebsstudien verwenden, die 2021 veröffentlicht wurden. Alle diese fehlerhaften Studien sind nach wie vor in der Literatur zu finden und werden weiterhin eine Quelle der Fehlinformation für Wissenschaftler sein, die sich mit Brustkrebs beschäftigen.

Im Jahr 2021 befindet sich die Klimaforschung in einer ähnlichen Situation wie die Brustkrebsforschung im Jahr 2007. Unsere Forschung (und die mehrerer Kollegen) zeigt, dass die Szenarien der Treibhausgas-Emissionen bis zum Ende des einundzwanzigsten Jahrhunderts auf veralteten Darstellungen der jüngsten Vergangenheit beruhen. Da die Klimamodelle auf diese Szenarien angewiesen sind, um das künftige Verhalten des Klimas zu prognostizieren, bilden die veralteten Szenarien eine irreführende Grundlage sowohl für die Entwicklung einer wissenschaftlichen Beweisbasis als auch für die Information der klimapolitischen Diskussionen. Der anhaltende Missbrauch von Szenarien in der Klimaforschung ist inzwischen so weit verbreitet und folgenreich, dass wir ihn als eines der größten Versäumnisse der wissenschaftlichen Integrität im einundzwanzigsten Jahrhundert betrachten. Wir brauchen eine Kurskorrektur.

[Hervorhebungen vom Übersetzer]

Mit unserer Forderung nach dieser Änderung betonen wir ausdrücklich und unmissverständlich, dass der vom Menschen verursachte Klimawandel real ist, dass er erhebliche Risiken für die Gesellschaft und die Umwelt birgt und dass verschiedene politische Reaktionen in Form von Abschwächung und Anpassung notwendig und sinnvoll sind [?]. Die Realität und die Bedeutung des Klimawandels sind jedoch ebenso wenig ein Grund oder eine Entschuldigung für die Vermeidung von Fragen der Forschungsintegrität wie die Realität und die Bedeutung von Brustkrebs. Im Gegenteil, die Dringlichkeit macht die Aufmerksamkeit für die Integrität umso wichtiger.

Die Emissionsszenarien, die die Klimagemeinschaft jetzt als Grundlage für Klimamodelle verwendet, beruhen auf Darstellungen der Gegenwart, die nicht mehr zutreffen. Und sobald die Szenarien den Bezug zur Realität verloren haben, gilt dies auch für die Klima-, Folgen- und Wirtschaftsmodelle, die für ihre Zukunftsprognosen auf sie angewiesen sind. Dennoch sind diese Projektionen ein zentraler Bestandteil der wissenschaftlichen Grundlage, auf der die Klimapolitiker jetzt ihre Maßnahmen entwickeln, diskutieren und beschließen.

Im Artikel kommt dann der Hintergrund und die Hikstorie zur Sprache, wie und warum es so weit gekommen ist:

Warum hat der IPCC dann RCP8.5 als einziges Business-as-usual-Grundgerüst gewählt? Nicht, weil er es ausdrücklich als die wahrscheinlichste oder auch nur plausibelste Zukunft der Welt ansah, obwohl die Bezeichnung beides impliziert. Vielmehr wurde RCP8.5 ausgewählt, um die Kontinuität mit den Szenarien früherer IPCC-Berichte zu gewährleisten, sowohl mit den SRES-Szenarien als auch mit früheren Basisszenarien, so dass die Ergebnisse der Klimamodellforschung über Jahrzehnte hinweg vergleichbar sind. Außerdem wurde RCP8.5 gewählt, um den Klimamodellierern zu helfen, die Unterschiede zwischen dem Verhalten des Klimas unter den angenommenen extremen Bedingungen der vom Menschen verursachten Klimaerwärmung und der natürlichen Variabilität zu untersuchen. Der Unterschied zwischen dem hohen (8,5 W/m²) und dem niedrigen (2,6 W/m²) RCP-Antriebspfad schuf, wie die Szenarioentwickler erklärten, „ein gutes Signal-Rausch-Verhältnis für die Bewertung der Klimareaktion in AOGCM-Simulationen (atmospheric-oceanic general circulation model)“. Die technischen Anforderungen der Klimamodellierung und nicht die Klimapolitik selbst haben die Gestaltung der IPCC-Szenarien bestimmt.

Bei unseren Untersuchungen zur Plausibilität der IPCC-Szenarien haben wir festgestellt, dass nicht nur das RCP8.5 unplausibel ist, sondern die gesamte Reihe der vom IPCC verwendeten Basis-Szenarien. In gewisser Weise ist dies nicht überraschend. Wenn sich die Ereignisse in einer komplexen Welt entfalten, werden sich selbst die in den Szenarien vorausgesagten kurzfristigen Entwicklungen von der Realität entfernen. Was jedoch die wissenschaftliche Integrität betrifft, so hängt der Ruf der Wissenschaft als Quelle einzigartig zuverlässigen Wissens von ihrer internen Fähigkeit zur Selbstkorrektur ab. Im Fall der RCPs (wie auch beim Beispiel der Brustkrebsforschung nach 2007) sehen wir stattdessen ein hartnäckiges Festhalten am Irrtum. Das wäre nicht weiter schlimm, wenn die Klimaszenarien keine Auswirkungen auf die Welt außerhalb der Wissenschaft hätten. Aber sie stehen im Mittelpunkt der wissenschaftlichen Bemühungen, die Zukunft des Klimawandels zu verstehen und die Entscheidungen der Gesellschaft darüber, wie sie darauf reagieren soll.

Die Autoren fassen das alles sehr gut so zusammen:

Die Folgen der allgegenwärtigen, unplausiblen Klimaszenarien reichen weit über den IPCC-Prozess und die wissenschaftliche Literatur hinaus, die diese Szenarien ermöglicht haben. Die fortgesetzte Konzentration auf unplausible Emissionsszenarien in der Klimaforschung ist ein Versagen der vermeintlich internen Qualitätssicherungsmechanismen der Wissenschaft und damit ein Versagen der wissenschaftlichen Integrität. Die ständige Verwendung unplausibler Szenarien führt zu Fehlern und Verzerrungen in der gesamten Klimaforschung. Sie sind nun in einer Weise in die Klima-wissenschaftliche Literatur eingewoben, die nur sehr schwer zu entwirren sein wird.

Viele dieser Tausenden von Veröffentlichungen prognostizieren künftige Auswirkungen des Klimawandels auf Mensch, Wirtschaft und Umwelt, die wesentlich extremer sind, als es das aktuelle Wissen über Emissionen und Treibhausgaspfade vermuten ließe. Da sich das Verständnis der Wissenschaftler für den Klimawandel weiter verbessert, werden sie vielleicht eines Tages zu dem Schluss kommen, dass die extremsten Auswirkungen auch bei niedrigeren Emissionspfaden plausibel sind. Aber das ist derzeit nicht der Konsens. Und so werden diese unplausiblen Projektionen apokalyptischer Auswirkungen in Jahrzehnten von Pressemitteilungen, Medienberichten und Befürwortern – wie in einem ausgedehnten Telefonspiel – in Behauptungen umgewandelt, dass der Klimawandel jetzt eine dramatische Zunahme von Extremereignissen wie Wirbelstürmen, Dürren und Überschwemmungen auslöst, Ereignisse, die eine bevorstehende globale Katastrophe vorhersagen.

Gleichzeitig und wenig überraschend nutzen einige Gegner der Klimapolitik die Probleme mit den IPCC-Emissions-Szenarien politisch aus. Gruppen wie das Global Warming Policy Forum in London und das Competitiveness Enterprise Institute in Washington, DC, heben den Missbrauch des RCP8.5 hervor, um die Qualität und Legitimität der Klimawissenschaft und -bewertungen insgesamt in Frage zu stellen. Doch im Gegensatz zu vielen Angriffen auf die Klimawissenschaft haben diese Organisationen in diesem Fall Recht.

Unplausible Klimaszenarien führen auch zu Fehlern und Verzerrungen bei aktuellen politischen und wirtschaftlichen Entscheidungen. So leitet beispielsweise die US-Regierung ihre Schätzungen der sozialen Kosten des Kohlenstoffs, die sie für die Kosten-Nutzen-Analyse von Bundesvorschriften verwendet, aus den IPCC-Szenarien ab. Auch der Finanzsektor passt die IPCC-Szenarien für seine Zwecke an. Der aufstrebende Markt für Klimaszenarienprodukte hat zu einer 40 Milliarden Dollar schweren „Climate Intelligence“-Industrie geführt, an der bekannte Unternehmen wie Swiss Re und McKinsey sowie Start-ups wie Jupiter Intelligence und Cervest beteiligt sind. Diese Unternehmen verwenden unplausible RCP-Szenarien, um verschiedene Vorhersageprodukte zu entwickeln, die sie an Regierungen und die Industrie verkaufen, die auf diese Produkte angewiesen sind, um politische und wirtschaftliche Entscheidungen in der Zukunft zu treffen.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/08/04/how-climate-scenarios-lost-touch-with-reality/

Übersetzt von Christian Freuer für das EIKE

 




UN nehmen den Meeresspiegel aufs Korn

Willis Eschenbach

Der neue IPCC-Sachstandsbericht 6 (AR6) der Vereinten Nationen ist erschienen und kann hier eingesehen werden. Darin wird deutlich gemacht, dass ein großer Teil des Berichts nicht wissenschaftlich ist. Stattdessen sind es die Meinungen von Wissenschaftlern. Sie beschreiben, was sie zum Beispiel verwenden, als:

… strukturiertes Expertenurteil (d. h. eine formale, kalibrierte Methode zur Kombination quantifizierter Experten

Einschätzungen, die alle potentiellen Prozesse einbeziehen)

Erstens kann man nicht wissen, ob sie „alle möglichen Prozesse“ berücksichtigt haben. Wir wissen nicht so viel über das Klima, und jeden Monat werden neue Entdeckungen gemacht. Zweitens: Was ist eine „quantifizierte Experteneinschätzung“, wenn sie im Kasten ist? Eine numerische Schätzung, über die man viel nachgedacht hat?

Und was ist die „formale, kalibrierte Methode“ für die Kombination einer Reihe von numerischen Schätzungen von „Experten“?

Hier ist die Beschreibung, wie sie die Wahrscheinlichkeit von etwas einschätzen und wie viel Vertrauen sie in diese Einschätzung der Wahrscheinlichkeit haben (Hervorhebung von mir [Eschenbach]):

In dieser technischen Zusammenfassung werden die wichtigsten Ergebnisse der Bewertung unter Verwendung der kalibrierten Unsicherheitssprache des IPCC (Kapitel 1, Kasten 1.1) angegeben. Zwei kalibrierte Ansätze werden verwendet, um den Grad der Gewissheit in den wichtigsten Ergebnissen zu kommunizieren, die auf den Bewertungen der Autorenteams über das zugrunde liegende wissenschaftliche Verständnis beruhen:

(1) Vertrauen ist ein qualitatives Maß für die Gültigkeit eines Ergebnisses, das auf der Art, Menge, Qualität und Konsistenz der Beweise (z. B. Daten, mechanistisches Verständnis, Theorie, Modelle, Experten-Beurteilungen) und dem Grad der Übereinstimmung beruht; und

(2) Die Wahrscheinlichkeit ist ein quantifiziertes Maß für das Vertrauen in einen Befund, das probabilistisch ausgedrückt wird (z. B. auf der Grundlage einer statistischen Analyse von Beobachtungen oder Modellergebnissen oder beidem und dem Expertenurteil des Autorenteams oder einer formalen quantitativen Erhebung von Expertenmeinungen oder beidem.

Ein paar Anmerkungen zu diesem Zitat. Erstens sind „Beweise“ in ihrer Welt nicht nur Daten, Beobachtungen und mechanistisches und theoretisches Verständnis. „Beweise“ sind für sie auch Modelle und Expertenurteile. Als jemand, der Computermodelle für eine Vielzahl von Systemen programmiert hat, kann ich Ihnen versichern, dass die Ergebnisse von Modellen nur in den allereinfachsten Systemen „Beweise“ sind. Aus diesem Grund verwenden Boeing und Airbus Windkanäle, um physikalische Modelle von geplanten Flugzeugen zu testen, deren Design auf Computermodellen basiert … weil Modellergebnisse keine Beweise sind.

Und ein „Expertenurteil“, ob es nun von einem einzelnen Experten stammt oder vom Autorenteam oder aus einer formalen quantitativen Erhebung von Expertenmeinungen, ist kein Beweis in irgendeinem Sinne. Es ist sicher wertvoll, aber vor hundert Jahren sagten „Expertenurteile“, dass Malaria durch Mangel an Hygiene und frischer Luft verursacht wird, dass Geschwüre durch Stress verursacht werden und dass sich Kontinentalplatten nicht bewegen können … war das ein „Beweis“?

Es ist pure Hybris zu glauben, dass dies heute nicht in einer Vielzahl von Bereichen der Fall ist.

Auf jeden Fall wollte ich die Güte ihres „Expertenurteils“ abschätzen. Ich habe festgestellt, dass sie ein neues „Sea Level Projection Tool“ haben, das uns ihr Expertenurteil darüber gibt, wie hoch der Meeresspiegelanstieg in verschiedenen Gebieten der Erde sein könnte.

Abbildung 1. Screenshot des UN IPCC-Meeresspiegel-Projektionstools. Für eine Reihe von Orten (blaue Punkte) werden sowohl die künftigen Pegel als auch die künftigen Anstiegsraten für jedes Jahrzehnt, beginnend in den 2020er Jahren, angegeben.

Ich habe schon früher über den Meeresspiegel geschrieben und dabei auch eine der besten und längsten Aufzeichnungen der Welt besprochen. Es handelt sich um den Datensatz von San Francisco, der etwa anderthalb Stunden südlich von meinem Arbeitsplatz gemessen wurde. Hier ist dieser Datensatz:

Abbildung 2: Aufzeichnung des Meeresspiegels vor San Francisco

Wie bei etwa 80 % der langfristigen Aufzeichnungen des Meeresspiegels gibt es keinerlei Anzeichen für eine Beschleunigung des Meeresspiegelanstiegs in San Francisco, weder insgesamt noch während des letzten halben Jahrhunderts. Der Anstieg des Meeresspiegels liegt seit anderthalb Jahrhunderten stabil bei 2 mm pro Jahr.

Was wäre also die einfachste Prognose für den künftigen Anstieg des Meeresspiegels in San Francisco? Angesichts der Tatsache, dass der Anstieg seit 170 Jahren konstant bei 2 mm pro Jahr liegt, wäre die erste Schätzung nicht viel anders als 2 mm pro Jahr … insbesondere im aktuellen Jahrzehnt, den 2020er Jahren.

Und was sagen uns die IPCC-Modelle der UN und die „Expertenmeinungen“ über den künftigen Anstieg des Meeresspiegels in San Francisco? Es kommt auf das „Szenario“ an. Das IPCC verwendet fünf verschiedene Szenarien. In der Reihenfolge des Anstiegs der CO2- und anderer Treibhausgas-Emissionen und damit des theoretischen Temperaturanstiegs werden sie als die Szenarien „1.9“, „2.6“, „4.5“, „7.0“ und „8.5“ bezeichnet. Darüber hinaus gibt es für den Anstieg des Meeresspiegels zwei „low confidence“-Szenarien. Sie sagen:

Zwei Szenarien mit geringem Vertrauen, die die potenziellen Auswirkungen von Eisschildprozessen mit geringer Wahrscheinlichkeit und großen Auswirkungen, die nicht ausgeschlossen werden können, aufzeigen, werden ebenfalls bereitgestellt. … Ein globaler mittlerer Meeresspiegelanstieg über den wahrscheinlichen Bereich hinaus – annähernd 2 m bis zum Jahr 2100 und 5 m bis zum Jahr 2150 unter einem Szenario mit sehr hohen Treibhausgasemissionen (SSP5-8.5) (geringes Vertrauen) – kann aufgrund der großen Ungewissheit bei Eisschildprozessen nicht ausgeschlossen werden.

Nachfolgend werden die Medianprojektionen (50 %-Quantil) der Anstiegsrate des künftigen Meeresspiegels von San Francisco nach Jahrzehnten für die sieben verschiedenen Szenarien dargestellt:

Abbildung 3. Vom IPCC der Vereinten Nationen prognostizierte Raten des Meeresspiegelanstiegs für jedes Jahrzehnt. Dies sind die mittleren Werte.

(Ich möchte anmerken, dass dies einen der großen Vorteile dieser Art von Analyse für ihre „Experten“ offenbart – fast unabhängig davon, wie sich der Meeresspiegel in der Zukunft entwickelt, können sie wahrheitsgemäß sagen: „Sehen Sie, das haben wir vorausgesagt!“. Aber ich schweife ab …)

Es gibt jedoch ein tieferes und viel ernsteres Problem. Um es zu verdeutlichen, hier die vier am wenigsten extremen Szenarien, 1.9 bis 7.0:

Abbildung 4. Wie in Abbildung 3, aber für die vier am wenigsten extremen Szenarien. Auch hier handelt es sich um die Medianwerte.

Ich bin sicher, dass das Problem klar wird. Nach der „Experteneinschätzung“ der Modellergebnisse liegt der Medianwert (50 %-Quantil) der Modelle für den Anstieg des Meeresspiegels in San Francisco im laufenden Jahrzehnt bei 4 mm pro Jahr … wie bitte? Seit 170 Jahren ist er nur halb so hoch, und in diesem Jahrzehnt soll er sich plötzlich verdoppeln?

Derzeit befinden wir uns 2 Jahre in der Dekade der 2020er Jahre … damit also die gesamte Dekade im Durchschnitt 4 mm pro Jahr beträgt, müsste die Rate heute beginnen, sich zu beschleunigen, und sich weiter beschleunigen, bis sie im Jahr 2029 etwa 7,5 mm pro Jahr erreicht. Erst dann würde das Jahrzehnt einen Durchschnitt von 4 mm pro Jahr erreichen.

Es kommt noch schlimmer. Die hohen Schätzungen des Meeresspiegelanstiegs (das 95 %-Quantil) ergeben für San Francisco Anstiegsraten zwischen 6,4 und 11,6 mm pro Jahr … für das laufende Jahrzehnt.

Entschuldigung, aber das ist keine Wissenschaft in irgendeiner Form. Das ist ein Scherz. Auf keinen Fall wird der durchschnittliche Anstieg des Meeresspiegels in San Francisco in den 2020er Jahren entweder 4 mm pro Jahr oder 8 mm pro Jahr betragen.

Bedenken Sie, dass dies das Ergebnis „einer formalen, kalibrierten Methode zur Kombination quantifizierter Expertenschätzungen ist, die alle potenziellen Prozesse einbeziehen“. Wird einem da nicht ganz warm ums Herz, wenn man an die anderen Behauptungen des UN IPCC AR6 denkt?

Erinnern Sie sich also an diesen monumentalen Wahnsinn des Meeresspiegelanstiegs, wann immer jemand darauf hinweist, dass „das IPCC“ etwas über die Zukunft sagt … dass ihr „Expertenurteil durch das Autorenteam oder aus einer formalen quantitativen Erhebung von Expertenmeinungen“ ist vielleicht keinen feuchten Kehricht wert ist.

Link: https://wattsupwiththat.com/2021/08/11/un-eye-p-p-sea-level/

Übersetzt von Christian Freuer für das EIKE

 




Klimawandel: „Gnadenlose Details“…

Helmut Kuntz

…titelte am 5. August ein Leitkommentar der Nordbayerischen Nachrichten, ergänzt um einen Artikel „Die Zukunft ist unser freier Wille“ [1].
Bald (bis zum Erscheinen dieses Artikels ist er bereits veröffentlicht) wird der neue IPCC-Klimabericht veröffentlicht und im Oktober folgt der nächste Klimagipfel. Dazu gab es Unwetter und im Mittelmeerraum lodern (oft von Menschen entfachte [4]) Feuer, (auch +50 °C ist noch meilenweit von der Entzündungstemperatur für Gras und Holz entfernt) die außer Kontrolle geraten sind. Der richtige Zeitpunkt, um die Welt in allen Medien gleichzeitig (wieder) untergehen zu lassen.

Zum Thema

Sieht man in den „Stern“ oder den „Spiegel“, sind die Header der Nordbayerischen Nachrichten eher „schmalbrüstig“, doch inhaltlich und in der Verzerrung von Fakten nähern sich die Medien zunehmend an.
Wie öfters, wenn es die Redaktion der Lokalzeitung wieder so richtig „krachen“ lässt, bekommt sie eine Gegendarstellung des Autors, mit dem Hinweis, dass diese auch auf EIKE erscheinen wird.

Hinweis: In der folgenden Darstellung wurden zur besseren Gliederung und Verständlichkeit leichte Ergänzungen vorgenommen.
An die Lokalredaktion:
Ich lese: „Die Forschungseinrichtung Climate Service Center Germany (GERICS) sagt uns die Klimazukunft voraus
Wohl richtiger müsste man formulieren:
Eine ehemals von der Bundesregierung gegründete und inzwischen als selbständige GmbH firmierende, sich jedoch vorwiegend mit Aufträgen der öffentlichen Hand finanzierende Einrichtung von derzeit 70 Mitarbeiter*innen simuliert als Auftragsleistung rund um die Welt Klimaprojektionen. Gerade publizierte sie ein Simulationspaket für Deutschland, heruntergebrochen auf alle Landkreise.
Anbei ein Interview der Redaktion mit einem GERICS-Studienautor auf seiner Werbetour.

Was dieser mit-Studienautor berichtet, zeigt nichts Neues. Die öffentliche Hand schüttet viel Geld in jegliche Art von „Klimaforschung“. Und weil es am einfachsten ist und außer Computerleistung relativ wenig Aufwand erfordert, gleichzeitig in den Kommunen wohl enormer Bedarf besteht, wird auf der Bürger Kosten faktisch „an jeder Straßenecke mit Steckdose“ auf Teufel komm raus klimasimuliert.

Und so machen es inzwischen viele staatliche bis halbstaatliche Institute, vom DWD bis zum PIK, universitäre Lehrstühle und inzwischen auch ausgegliederte „StartUps“ wie dieses GERICS-Klimacenter.

Nun fragt man sich: Was sind dann die Unterschiede? Nun, einmal die Verwendung immer unwahrscheinlicherer Parametrierungen um möglichst viel Alarm zu erzeugen, sowie die unterschiedlichen „Ehrlichkeiten“, dies in der Publizierung wenigstens im Ansatz mitzuteilen, mit der Gefahr, bei zu viel „Ehrlichkeit“ – bedeutet, zu wenig Alarmismus – keine Forschungsmittel mehr zu bekommen.

Zur Aussage der Kommentatorin, es zeige Gnadenlose Details

Sieht man in die Simulationsstudien dieser Simulationsfirma GERICS, fällt auf: Im wahrscheinlichsten Szenario RCP2.6 passiert bis zum Jahr 2100 eigentlich gar nichts! Weder für Deutschland, noch für den Raum Nürnberg.

Es wird etwas wärmer und es gibt weniger Frosttage, doch sonst zeigen die Varianzen der vielen Klimaläufe dass es meistens um so viel weniger, wie mehr – in Summe also auch gegen Null – Differenz werden kann. Und es zeigt sich eine fast schon wahnsinnige Streuung, bei der man sich fragen muss, ob die Simulationsprogramme nicht eher Produkte zum Spielen, als für eine Forschung sind.

Vorab Grundsätzliches zu Klimasimulationen:

Bild 1 Thema Klimamodellierung. Aus einem Foliensatz des Autors

Allerdings ist das weniger eine Frage, sondern Fakt. Die Klimaprogramme sind so schlecht, dass man schon welche – und gerade neuere – zurückziehen musste (Zufügung: Sie aber trotzdem für den neuen IPCC-Bericht verwendete [5]):
26. September 2017, „kalte Sonne“: Start des neuen CESM2-Klimamodells in letzter Minute abgeblasen: Realität und Simulation wichen zu stark voneinander ab …

Bild 2 Thema Klimamodellierung. Aus einem Foliensatz des von mir

Jedenfalls ergeben die Kurvenscharen ähnliche Streubilder, wie die Wettersimulationen nach grob 7 Tagen: Sie beginnen zu oszillieren und liefern unbrauchbare Ergebnisse.

Doch selbst solche zeigen kein wirkliches Problem. Die DWD-Simulation der angeblich kritischen Sommertemperatur zeigt zwar schon aktuell eine Fehler- Spannweite von ca. 5 Grad, im Mittel aber bis zum Jahr 2100 eigentlich wenig weitere Veränderung.

Bild 3 DWD Klimaatlas, Deutschland: Sommertemperatur mit Simulation RCP2.6 bis 2100. Vom Autor ergänzt

Für den Raum Nürnberg simulierte GERICS im realistischen Szenario RCP2.6 für das Jahr 2100 im Mittel ca. +1 … 1,5 Grad.

Bild 4 Temperatur, Klimaprojektion 2100 für Nürnberg und Umgebung. Im Jahr 2100 ca. 1 … 1,5 Grad wärmer. Vom Autor ergänzt. Quelle: GERICS Klimaausblick

Die Hitzeperioden sind ebenfalls minimal erhöht. Zwischen 0 … 4,5 Tage mehr im Jahr 2100 werden wohl niemanden erschüttern.
GERICS Klimaausblick: Maximale Dauer von Hitzeperioden:
Zum Ende des Jahrhunderts liegen die simulierten, jährlichen Änderungen für RCP2.6 zwischen -0,1 und 4,5 Tagen pro Jahr.
Auch die 1 … 1,5 Grad simulierte Temperaturerhöhung im Jahr 2100 wird im Großraum Nürnberg mit Sicherheit niemand bemerken können.

Bild 5 DWD-Station Nürnberg. Tagesmaximum der Temperatur. Grafik vom Autor erstellt.

Sofern man mehr Wärme in unseren Breiten überhaupt als Problem bezeichnen möchte, was allerdings den Mortalitätsdaten widerspricht:
[Link] EIKE 22. Januar 2021: Die Hitzetoten des Dr. von Hirschhausen,
würde man zuallererst die teils schon extremen Wärmeinseleffekte beseitigen:

Stadtportal Nürnberg, Klimaschutz: Gemessene Klimaveränderungen in Nürnberg
… Die Bewohner der Innenstadtbereiche müssen dabei mit einer ungleich höheren Hitzebelastung leben, als Bewohner der Stadtrandlagen. Hier wird der sog. Wärmeinseleffekt sichtbar. So liegen im Sommer die Temperaturen an Wetterstationen in der Innenstadt im Mittel 2-3°C über den Stadtrand-Stationen. Allerdings können die Temperaturunterschiede im Tagesverlauf bis zu 10°C betragen, da sich die Luft nachts in der Stadt aufgrund der dichten Bebauung im Sommer nur sehr langsam abkühlt. So treten in der Innenstadt weitaus öfter Tropennächte (die Nachttemperaturen fallen nicht unter 20°C) auf, als beispielsweise in Stadtrandlagen. Während der 17-tägigen Hitzewelle vom 24. Juli bis 09. August 2018 kam es am Jakobsplatz z.B. insgesamt zu 13 Tropennächten, am Flughafen dagegen nur zu einer Tropennacht.

Man muss sich das einfach durch den Kopf gehen lassen:
Deutschland mit seinem 2 % CO2-Welt-Emissionsanteil „reduziert“ mit allen bisher beschlossenen – und Billiarden EUR kostenden – Reduzierungsmaßnahmen die Globaltemperatur im Jahr 2100 vielleicht um 0,016 … 0,052 °C !!!!,
der Wärmeinseleffekt in Nürnberg beträgt aktuell jedoch bereits bis zu +10 Grad.

Und da erzählt eine Redakteurin allen Ernstes: „ Wir müssen etwas tun: Nürnberg bemüht sich. Es gibt den „Klimafahrplan 2010 – 2050“. Die Stadt hat einen Klimaschutzbeauftragten, Projekte zur Energieeinsparung. Die Bürger steigen auf Fahrräder und Elektroautos um, Umweltschutz gehört zum Alltag. Und doch: Das reicht nicht für die große Kehrtwende in Deutschland … „

Noch unsinniger können Vorschläge wirklich nicht mehr sein. Allerdings entsprechen solche im Merkelland dem Zeitgeist und bezeugen die richtige, vorgeschriebene GRÜNE „Haltung“. Ich warte noch darauf, dass die Redaktion ihren Lesern die Idee der GRÜNEN (nicht nur) für ein Klimaministerium als bahnbrechenden Lösungsvorschlag vorstellt (Zufügung: Mit dem zwischenzeitlichen Wahlaufruf der Redaktion GRÜN zu wählen, ist es im Kern schon geschehen):
Achgut. 04.08.2021: Die Grünen: Heute retten sie Deutschland und morgen die ganze Welt
Tichys Einblick, 04.08.2021: Die Grünen treten gegen die Deutschen und die Realität an

Der Rest an GERICS Projizierungen ist so etwas von „banal“, dass man den künftigen Enkeln zurufen möchte: Ihr habt ja das gleiche, schlechte Wetter wie wir …
In der Zeitung hatte man aber wohl Angst, dies zu deutlich zu zeigen, weshalb in der Tabellierung die Minimumwerte weggelassen wurden, um nicht darzustellen, dass die wahrscheinlicheren Mittelwerte teilweise in der Gegend von Null herum pendeln. Man könnte genau so begründet folgern, dass die Redaktion bewusst Panik schüren möchte. Denn die positiven Maximalwerte sind nicht wahrscheinlicher als die negativen. Und am wahrscheinlichsten bleibt immer noch der Mittelwert.

Folgerung: Dass im Jahr 2100 die „Maximale Dauer von Hitzeperioden“ gegenüber heutzutage -0,1 Tage beträgt, ist genau so wahrscheinlich wie +5,5 Tage. Wobei beides kein Alarm ist und Billiarden EUR Ausgaben zur CO2-Verhinderung rechtfertigt (würde mancher wohl denken).

Bild 6 Darstellung Scenario RCP2.6 (und alle anderen Scenarien) im Zeitungsartikel. Nur die positiven Maximalwerte sind enthalten (Bild hier nachträglich zugefügt)

Deshalb der vollständige Auszug für das RCP2.6-Scenario aus der Studie anbei:

Bild 7 Klimaprojektion 2100 für Nürnberg und Umgebung (Teilbild). Quelle: GERICS Klimaausblick

Bild 8 Klimaprojektion 2100 für Nürnberg und Umgebung (Teilbild). Quelle: GERICS Klimaausblick

Der befragte Meteorologe weiß auf Nachfrage: „Der Klimawandel ist immer hochaktuell und wird es auch bleiben, weil sich die Extremereignisse einfach häufen …

Die Redakteurin ist mit der Bejahung ihrer Frage hoch zufrieden.
Entweder hat sie keine Ahnung, oder diese wäre die „falsche“ und sie sagt es deshalb nicht. Denn was der Meteorologe antwortet, möge ein geringer Teil seiner Simulationen ausspucken, doch leider ist es durch keinerlei Messdaten belegt. Diese zeigen das Gegenteil:
[Link] EIKE 08. Juni 2018: Die Suche nach dem Klimawandel geht weiter. Denn in Deutschland ist er nicht zu finden

Beispiel Nürnberg

Die Niederschlagsverläufe zeigen, dass sogar die schlimmen Tagesniederschläge eher abnehmen, wie es auch die Stadt Nürnberg selbst mitteilt:
Stadtportal Nürnberg Starkregenereignisse
Ebenso ist bislang kein signifikanter Trend einer Zunahme von Starkregenereignissen in Nürnberg zu erkennen. Die Analyse historischer Messdaten ergab, dass es im Schnitt zu weniger als einem Starkregenereignis (>15mm Niederschlag pro Stunde) pro Jahr kommt. Dennoch muss beachtet werden, dass für Nürnberg noch keine 30-jährigen Zeitreihen zu Starkregen vorliegen. Somit lassen sich noch keine Aussagen zu klimatischen Veränderungen treffen. 

Klar, dass das nicht sein darf und die Stadt Fürth sich deshalb für einiges Geld gerade gegen das, was in Wirklichkeit immer weniger wird versichert hat. Begründung in der Stadtratsvorlage dazu: „Starkregenereignisse haben zugenommen
Zufügung: Auf Nachfrage des Autors war die zuständige Abteilung der Stadt nicht in der Lage, eine Begründung zu liefern. „Geliefert“ wurden Grafiken der Münchner Rückversicherung, dass Unwetterschäden zunehmen.

Bild 9 DWD-Station Nürnberg, Tages- und Zwei-Tagesniederschlag seit 1936. Grafik vom Autor erstellt.

Bild 10 Thema: Wetterfolgen, die nicht Klimaprobleme, sondern Baumängel offenlegen. Auszug aus einem Foliensatz des Autors

Beispiele Deutschland

Im Deutschen Klima-Monitoringbericht von 2019 steht das Gegenteil.

Bild 11 Klima-Monitoringbericht 2019. Angaben zu Hochwasser: Seit einem Extrem 1993 rapid und stetig abnehmend

Bild 12 Klima-Monitoringbericht 2019. „Starkregen im Siedlungsbereich“: Kein Trend erkennbar. In Summe abnehmend

Ähnlich sieht es der Deutsche Wetterdienst in seinem Klimareport von 2020. Dort heißt es auf den Seiten 38-39:
„Für den Sommer lassen sich derzeit mit den vorhandenen Beobachtungsdaten und den bekannten Methoden keine Trends der Anzahl von Tagen mit hohen Niederschlagsmengen identifizieren. Hier dominiert eine kurz- und mittelfristige zyklische Variabilität.“

Gnadenlose Details

Wie die Redakteurin darauf kommt, solch banale (simulierte) Wetteränderungen im Jahr 2100 als „Gnadenlose Details“ zu titulieren, würde den Autor interessieren.
Aber klar, gemeint sind die RCP8.5 Projektionen. Und wirklich, bei solchen Projektionen muss mit Klimahüpfer- bis dpa-Klimaalarm-Pseudowissen, ergänzt um Lauterbachs Dauer-CovidKlimaalarm und Dr. Hirschhausen „Klimafieber“ vollgestopften Redakteur*innen Angst und Bange werden, obwohl man deren simulierten Schwachsinn eigentlich sofort erkennt.

Bild 13 Niederschlag: Klimaprojektion 2100 für Nürnberg und Umgebung. Quelle: GERICS Klimaausblick

Aus solchen „Berechnungen“ mit riesigen Streuungen und Oszillationen lässt sich für den Niederschlag um das Jahr 2100 ein Bereich zwischen +50 … -30 % finden. Es ist also für jeden passendes dabei ….

Bild 14 Deutschland, DWD Niederschlagsprojektion RCP8.5 zum Jahr 2100 und Wert aus GERICS Klimaausblick. Grafik vom Autor zusammengesetzt

Für das realistische Szenario RCP2.6 ändert sich dann am Wahrscheinlichsten – dem Mittelwert – nichts.

Bild 15 Deutschland, DWD Niederschlagsprojektion RCP2.6 zum Jahr 2100

Wie die Redakteurin dazu kommt, meint man zu ahnen, wenn man in ihrem in der Ausgabe folgenden Artikel „Die Zukunft ist unser freier Wille“ – einem Interview mit einem der GERICS Studienautoren – liest.
Wie immer bei der Redaktion, wenn es ums Klima oder Ökoenergie oder „Wenden“ geht: Die gleiche Meinung befragt die mit Sicherheit gleiche Aussage.

Es zeigt sich mit der Frage: „Aber das erste Scenario mit den hohen Emissionen ist doch realistischer“.
Warum ist das Szenario RCP8.5 mit Klimavertrag noch realistisch, gar realistischer? Weiß die Redakteurin, wie heftig derzeit um die CO2-Parameter CO2-Senkenfluss und CO2-Klimasensivität „gekämpft“ wird, sich das „CO2-Restbudget“ laufend erhöht und damit immer unkritischer wird, beziehungsweise schon unkritisch ist? Und dass sich sogar eher alarmistisch eingestellte Klimawissenschaftler gegen die Verwendung des unrealistischen – aber eben herrliche Extreme vorhersagenden – RCP8.5 Szenarios aussprechen:
[6] kaltesonne, 30. Dezember 2020: Hohes RCP 8.5-Emissionsszenario immer unwahrscheinlicher,
wobei nicht verschwiegen werden soll, dass sich viele „Klimawissenschaftler und mit der Klimahysterie florierenden Institute für das RCP8.5-Scenario aussprechen.

Zufügung: Inzwischen wird RCP8.5 wohl auf eine „obrige“ Anordnung hin amtlicherseits zunehmend verwendet, auch vom DWD in ihrem Viewer.

Bild 16 Thema: CO2-Forcing. Auszug aus einem Foliensatz des Autors

Bild 17 Thema: CO2-Budget. Auszug aus einem Foliensatz des Autors

Nichts davon findet sich im Artikel. Der befragte Meteorologe wird dazu nicht befragt und geht deshalb darauf bewusst nicht ein. Es würde seine vielen Simulationen ja in Frage stellen.

Dann kommt die obligatorische (indirekte) Zuweisung der jüngsten Hochwasser als Ereignis des Klimawandels:
Frage: „Angesichts der Hochwasserkatastrophe in diesem Juli im Westen Deutschlands sind die Vorhersagen zum Niederschlag besonders interessant“

Die wichtigste Frage wird dabei nicht gestellt: Wie will man mit Datensätzen, in denen Niederschlag grob ab 1950, mit genauen Daten erst seit dem Jahr 2000 beginnt, „Niederschlagszukunft“ kalibrieren und berechnen, wenn Niederschlagszyklen mindestens 100 Jahre betragen?

Vor allem: Warum ist ein Flutereignis im Jahr 2021 ein Ergebnis des „schlimmen Klimawandels“, wenn es dort ein mindestens gleich großes im Jahr 1910 und ein ca. zwei bis drei Mal so großes im Jahr 1804 gab?
Man kann dazu doch genau so treffsicher formulieren: Infolge des sich stetig wandelnden Klimas trat das dritte, hundertjährige Flutereignis nur mit der Dimension wie 1910 und nicht wie vor der Industrialisierung zwei bis drei Mal so stark auf. Wegen unbeschreiblichem Versagen aller Verantwortlichen und weil selbst für dieses, seit dem Mittelalter bekanntermaßen extrem gefährdete Tal, kein Geld für sinnvollen Hochwasserschutz bereitgestellt wurde, führte das aktuelle Hochwasser jedoch wie in lokalen Hochwasseranalysen vorhergesagt zu extremen Schäden an Menschen und Sachen.
[2] EIKE 30.07.2021: Einschläge des Klimawandels oder eher eklatantes Staats- und Behördenversagen?
[3]
EIKE: Flutkatastrophe: Totalversagen der Klimawandel-Propheten

Liest man dazu den nach der Katastrophe publizierten Hilferuf der betroffenen Bürgermeister, wird einem Angst und Bange vor so geballter und publizierter Inkompetenz (und unter Merkel verlotterter Infrastruktur):
AFP – Samstag, 7. August 2021: … Das Schreiben hatten auch 13 Ortsbürgermeister im Ahrtal unterzeichnet. Langfristig brauche es Sicherheit gegen künftige Hochwasser, ein gutes Frühwarnsystem und funktionierenden Katastrophenschutz.
Die Antwort des Meteorologen hätte mich brennend interessiert.

Zum Schluss sagte er noch etwas, zu dem man sich eine konkretisierende Nachfrage gewünscht hätte: „Und heute ist es angeblich zu spät und man kann angeblich nichts mehr tun. Das stimmt einfach nicht.“
Wollte er damit etwas ansprechen, was er sich direkt nicht zu sagen traute?

Meine Antwort lässt sich nachlesen:
[Link] EIKE 30.07.2021: Einschläge des Klimawandels oder eher eklatantes Staats- und Behördenversagen?

05.08.2021
Gruß
Der weiterhin renitente Leser
xxxx
Auch diese Kritik werde ich wohl in etwas redigierter Ausführung auf EIKE hinterlegen (Zufügung: Was hiermit erfolgt ist)

Die „Antwort“ der Redaktion:
Wenige Tage später ein Bericht „Franken trifft es in Bayern am Härtesten“,
über die gerade veröffentlichten Klimasimulationen des Bayerischen Landesamtes für Umwelt (LFU).
Wie gesagt, klimasimuliert wird inzwischen wirklich „an jeder Hausecke mit Stromanschluss“. (Nicht nur) deshalb gibt es wohl auch keine Zeit, Geld und Personal mehr für notwendige und sinnvolle Aufgaben, wie beispielsweise im 16. Merkeljahr, einen „funktionierenden Hochwasserschutz“, den sich wenigstens „langfristig“ Bürgermeister im vielleicht flutgefährdetsten Tal Deutschlands wünschen:
… Das Schreiben hatten auch 13 Ortsbürgermeister im Ahrtal unterzeichnet. Langfristig brauche es Sicherheit gegen künftige Hochwasser, ein gutes Frühwarnsystem und funktionierenden Katastrophenschutz.

Dann, mit der vorab-Veröffentlichung von Infos zum neuen IPCC-Klimaberichtes: dpa „Schlimmer als befürchtet?“,
die ungeschminkte Aufforderung der Redaktion, GRÜN zu wählen und dabei die offensichtlichen Mängel von deren Kanzlerkandidatin doch zu ignorieren:
Redaktionskommentar: Die Welt verlässt gerade ihre Klima-Komfortzone: „ … Wir sollten den Protestierenden in den Klima-Camps dafür ebenso dankbar sein wie Fridays for Future und Greta Thunberg … Über geschönte Texte und abgekupferte Lebensläufe dürfen wir uns ärgern. Aber angesichts des Klima-Horrorjahres, das wir gerade erleben, sind das Belanglosigkeiten. Viel wichtiger ist, dass nur die Parteien unsere Stimme bekommen, die dem Kampf gegen den Klimawandel höchste Priorität einräumen.“

Da darf unsere Umweltministerin nicht nachstehen: AFP, 09.08.2021: Schulze: „Der Planet schwebt in Lebensgefahr

Wie meilenweit solche Aussagen (und unsere Einheitsparteien) von jeglicher realistischen (und sinnvollen) Betrachtungsweise entfernt sind, zeigt die folgende Folie:

Bild 18 Thema: Klimawandel und sein Anteil an vielen Problemen unseres Planeten. Auszug aus einem Foliensatz des Autors

Bild 19 Swiss Re Datenviewer (Rückversicherer). Vergleich der Opferzahlen durch Erdbeben (gelb) und durch Wetterereignisse (blau)

Quellen

[1] FN vom 05.08.2021: Kommentar „Gnadenlose Details“ und Artikel „Die Zukunft ist unser freier Wille“ (Anmerkung: Im Netz: Klimawandel in der Stadt: „Wir müssen schlauer mit Energie umgehen“ – Nürnberg | Nordbayern)

[2] EIKE 30.07.2021: Einschläge des Klimawandels oder eher eklatantes Staats- und Behördenversagen?

[3] EIKE: Flutkatastrophe: Totalversagen der Klimawandel-Propheten

[4] Achgut, 08. August 2021: Griechenland: Brandstiftung für Windräder?

[5] Achgut, 09.08.2021: Vergangenheit immer kälter, IPCC-Bericht immer heißer
Im neuen Bericht des Weltklimarates (IPCC), der heute erscheint, wird die Vergangenheit kaltgeschrieben, womit sie viel besser in die politisch erhitzte Gegenwart passt. Eine erste Analyse.

[6] kaltesonne, 30. Dezember 2020: Hohes RCP 8.5-Emissionsszenario immer unwahrscheinlicher