Die idiotische Antwort auf die globale Erwärmung: Wasserstoff

Francis Menton

Wasserstoff! Er ist die offensichtliche und perfekte Antwort auf die durch menschliche CO2-Emissionen verursachte globale Erwärmung. Anstatt Kohlenwasserstoffe (fossile Brennstoffe) zu verbrennen, können wir den Kohlenstoffanteil weglassen, nur den Wasserstoff verbrennen und nichts als reinen Wasserdampf freisetzen. H2 + O = H2O! Also keine CO2-Emissionen mehr. Warum ist eigentlich niemand früher auf diese Idee gekommen?

Eigentlich sind Ihnen die Genies in diesem Punkt weit voraus. Präsident George W. Bush warb bereits 2003 für die kommende „Wasserstoffwirtschaft. („In seiner Rede zur Lage der Nation 2003 rief Präsident Bush seine Wasserstoff-Kraftstoff-Initiative ins Leben. Ziel dieser Initiative ist es, in Partnerschaft mit dem Privatsektor die für eine Wasserstoffwirtschaft erforderliche Forschung und Entwicklung zu beschleunigen.“).

Barack Obama wollte dabei natürlich nicht ins Hintertreffen geraten. Im Vorfeld der Pariser Klimakonferenz 2015 verkündete Obamas Energieminister Ernest Moniz: „Wasserstoff-betriebene Motoren ebnen den Weg zur Wettbewerbsfähigkeit auf dem globalen Markt für saubere Energie und zur Schaffung neuer Arbeitsplätze und Unternehmen im ganzen Land.“

Und dann ist da noch der größte Wasserstoff-Enthusiast von allen, der britische Premierminister Boris Johnson, der verspricht, dass sein Land an der Schwelle zur „Wasserstoff-Wirtschaft“ steht. („Gegen Ende 2020 veröffentlichte Premierminister Boris Johnson Einzelheiten eines 10-Punkte-Plans für eine so genannte ‚grüne industrielle Revolution‘. . . In diesem Jahr wird die Regierung auch eine Wasserstoffstrategie veröffentlichen, die ‚Pläne‘ zur Entwicklung einer Wasserstoffwirtschaft in Großbritannien skizzieren wird.“)

Und nicht zu vergessen: Kalifornien. In meinem Beitrag von vor zwei Tagen über die kalifornischen Pläne für kohlenstofffreie Elektrizität findet sich ein Diagramm, aus dem hervorgeht, dass bis 2045 etwa 40 GW an so genannten „Zero Carbon Firm“-Ressourcen zur Verfügung stehen sollen. Was ist damit gemeint? Im Druck unter dem Diagramm wird es verraten: „Wasserstoff-Brennstoffzellen“. (Die derzeitige Menge an Wasserstoff-Brennstoffzellen, die Strom ins Netz einspeist, beträgt 0.)

Im Grunde ist Wasserstoff also die perfekte Antwort auf unsere Probleme, oder? Falsch. Nur ein Idiot könnte glauben, dass Wasserstoff irgendeinen materiell nützlichen Beitrag zur Energieversorgung der Welt leistet.

Für viele der folgenden Informationen werde ich mich auf einen Bericht vom 6. Juni 2020 stützen, den John Constable für die Global Warming Policy Foundation verfasst hat. Ohne den ausgezeichneten Bericht von Mr. Constable in irgendeiner Weise herunterspielen zu wollen, habe ich viele der gleichen Punkte in einem der allerersten Beiträge auf diesem Blog im November 2012 mit dem Titel „The Hydrogen Economy“ dargelegt. Dieser Beitrag basierte hauptsächlich auf meinem laienhaften Verständnis des Zweiten Hauptsatzes der Thermodynamik. Das ist wirklich alles, was man wissen muss, um zu erkennen, dass Wasserstoff als Hauptenergiequelle für die Wirtschaft überhaupt keinen Sinn macht.

Worin besteht also der grundlegende Fehler in der Idee einer wasserstoffbasierten Energiewirtschaft? Constable formuliert es folgendermaßen: „Da elementarer Wasserstoff, H2, hochreaktiv ist, kommt er in der Natur nur in geringen Mengen auf der Erdoberfläche vor, ist aber in einer Vielzahl von Verbindungen vorhanden.“ Mit anderen Worten: Der Wasserstoff steht nicht zur freien Verfügung, sondern ist bereits mit etwas anderem verbunden; und um den Wasserstoff zu trennen, damit man freien Wasserstoff zur Verfügung hat, muss man Energie zuführen. Sobald man die Energie hinzugefügt hat und den freien Wasserstoff hat, kann man ihn verbrennen. Aber hier kommt der zweite Hauptsatz der Thermodynamik ins Spiel. Aufgrund unvermeidlicher Ineffizienzen in den Prozessen erhält man bei der Verbrennung des Wasserstoffs weniger Energie zurück, als man zur Freisetzung des Wasserstoffs aufgewendet hat. Egal, wie man das Problem angeht, der Prozess der Freisetzung von Wasserstoff und seiner anschließenden Verbrennung kostet mehr Energie als er erzeugt.

[Hervorhebung vom Übersetzer]

Glauben Sie, dass jemand in unserer politischen Führung oder in der Bürokratie dies verstehen könnte? Verlassen Sie sich nicht darauf.

Constable geht dann noch viel weiter ins Detail, und je tiefer er einsteigt, desto lächerlicher erscheint das Wasserstoffprojekt. Da sich der gesamte Wasserstoff zunächst mit irgendetwas verbindet, wo könnte man dann eine Quelle für große Mengen Wasserstoff finden? Constable: „Es gibt nur wenige Quellen, die sich entweder auf Wasser, fossile Kohlenwasserstoffe oder Biomasse beschränken.“

Die Bindung von Wasserstoff und Sauerstoff in Wasser ist eine hochenergetische Angelegenheit, die daher viel Energie erfordert, um sie zu lösen. Nehmen wir also an, der Wasserstoff wird aus Erdgas gewonnen. Das ist in der Tat die Hauptquelle für große Mengen reinen Wasserstoffs für industrielle Zwecke. Constable beschreibt einen gut etablierten Prozess namens „Dampf-Methan-Reformation“ (SMR), bei dem Dampf durch Erdgas (Methan oder CH4) geleitet wird. Die Bindung wird gebrochen und der Wasserstoff wird freigesetzt. Voilà! Aber was passiert mit dem Kohlenstoff? Er wird natürlich auch freigesetzt und verbindet sich mit dem Sauerstoff aus der Luft zu CO2.

Moment! Die ganze Intention hinter diesem teuren Prozess war, die Freisetzung von CO2 zu vermeiden. Wir brauchen also eindeutig einen weiteren Schritt. Im britischen Vorschlag zur Schaffung der „Wasserstoffwirtschaft“ mussten sie Verfahren zur „Kohlenstoffabscheidung und -speicherung“ einbeziehen, um das CO2 abzuscheiden, bevor es in die Atmosphäre gelangt, eben um genau das zu verhindern. Allerdings haben sie noch nicht herausgefunden, wie sie alles abscheiden können. Man hofft auf eine Abscheidungsrate von vielleicht 85-90 %. Es stellt sich also heraus, dass dieses Verfahren trotz seiner zusätzlichen Kosten keineswegs emissionsfrei ist.

Und dann ist da noch die nächste offensichtliche Frage: Warum wird das Erdgas nicht einfach verbrannt? Anstatt Energie in den Prozess der „Dampf-Rreform“ zu stecken, wird bei der Verbrennung des Kohlenstoffs eine große Menge an nutzbarer und nützlicher Energie frei. Und was das CO2 angeht, so erhalten Sie genau die gleiche Menge. Wenn Sie darauf bestehen, dass das CO2 abgetrennt werden muss, können Sie versuchen, es bei diesem Prozess abzutrennen, anstatt bei der Dampf-Rreform. Auch hier werden Sie nicht 100 % erhalten, aber es ist wirklich kein Unterschied.

Abgesehen von der Optik. Im ersten Szenario behaupten Sie, Sie würden „sauberen, reinen Wasserstoff“ verbrennen. Im zweiten Szenario verbrennen Sie Erdgas, so wie wir es seit Jahrzehnten tun. Können die Menschen wirklich darauf hereinfallen?

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/08/13/the-idiots-answer-to-global-warming-hydrogen/

Übersetzt von Christian Freuer für das EIKE

 




Heißester Monat? Von wegen!

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Noch mehr skandalöse Berichterstattung durch die BBC (einschließlich der verabscheuungswürdigen Verwendung eines Fotos von den türkischen Waldbränden):

Der Juli war weltweit der heißeste jemals aufgezeichnete Monat, wie eine US-amerikanische Bundesbehörde für Wissenschaft und Regulierung mitteilte. Die Daten zeigen, dass die kombinierte Land- und Meeresoberflächentemperatur 0,93 °C über dem Durchschnitt des 20 Jahrhunderts von 15,8°C. Dies ist die höchste Temperatur seit Beginn der Aufzeichnungen vor 142 Jahren. Der bisherige Rekord vom Juli 2016 wurde 2019 und 2020 erreicht.

Experten glauben, dass dies auf die langfristigen Auswirkungen des Klimawandels zurückzuführen ist. In einer Erklärung erklärte die National Oceanic and Atmospheric Administration (NOAA), dass die „wenig beneidenswerte Auszeichnung“ des Juli Anlass zur Sorge gebe.

„In diesem Fall ist der erste Platz der schlechteste Platz“, sagte der NOAA-Administrator Rick Spinrad in einer Erklärung: „Dieser neue Rekord unterstreicht den beunruhigenden und zerstörerischen Weg, den der Klimawandel für den Globus eingeschlagen hat“.

Die kombinierte Land- und Meerestemperatur lag um 0,01 °C über dem Rekord von 2016. In der nördlichen Hemisphäre lag die Temperatur an der Landoberfläche um „beispiellose“ 1,54 °C über dem Durchschnitt und übertraf damit den bisherigen Rekord aus dem Jahr 2012.

In der Zwischenzeit, zurück in der realen Welt, liegen die Temperaturanomalien im Juli selbst nach Angaben der NOAA weit unter den Spitzenwerten von 2015 und 2016 und kaum höher als vor zwei Jahrzehnten:

Und die Behauptung, dass sie die Temperatur der Welt auf ein Hundertstel Grad genau kennen, ist lächerlich. Die obige Karte der BBC suggeriert bei weitem nicht die vollständige globale Abdeckung, sondern die tatsächliche Abdeckung:

Große Teile der Welt werden überhaupt nicht erfasst, und ein großer Teil des Rests ist durch UHI beeinträchtigt. Im Gegensatz dazu bieten Satelliten eine nahezu 100 %ige Abdeckung, außer um die Pole herum, und werden nicht durch UHI beeinträchtigt. Die Daten dieser Satelliten zeigen, dass die Temperaturen in der Atmosphäre heute nicht höher sind als im Jahr 2002:

Link: https://wattsupwiththat.com/2021/08/15/hottest-month-poppycock/

Übersetzt von Christian Freuer für das EIKE

 




Bemerkungen zur wissenschaftlichen Integrität nach Art der [US-]Bundesregierung

Kenneth Haapala, President, The Science and Environmental Policy Project (SEPP)

„Es ist eine Sache, drastische Maßnahmen und harte wirtschaftliche Sanktionen zu verhängen, wenn ein Umweltproblem eindeutig und schwerwiegend ist. Eine ganz andere Sache ist es, dies zu tun, wenn das Umweltproblem weitgehend hypothetisch ist und nicht durch sorgfältige Beobachtungen belegt werden kann. Dies ist bei der globalen Erwärmung definitiv der Fall“.Frederick Seitz, 17. Präsident der Nationalen Akademie der Wissenschaften der Vereinigten Staaten

Diese Abhandlung befasst sich mit der wissenschaftlichen Integrität, die mit der Befürchtung verbunden ist, dass die durch den Menschen verursachte Erhöhung des Kohlendioxidgehalts in der Atmosphäre zu einer erheblichen globalen Erwärmung führen wird. Um zu verstehen, wie Kohlendioxid die Temperaturen auf der Erde beeinflusst, muss man den Treibhauseffekt verstehen, wie verschiedene Treibhausgase den Wärmeverlust an den Weltraum beeinflussen, wie verschiedene Treibhausgase die Wirksamkeit anderer Treibhausgase in der Atmosphäre beeinflussen und wie die Zunahme des Treibhauseffekts das Klima beeinflusst. Um zu verstehen, wie sich die menschlichen Emissionen von Treibhausgasen auf das Klima auswirken, muss der Treibhauseffekt von anderen menschlichen Einflüssen auf das Klima, wie der Verstädterung, getrennt werden. Außerdem müssen die menschlichen Einflüsse von den natürlichen Klimaveränderungen getrennt werden, zu denen auch die veränderte Ozeanzirkulation und die veränderten Sonneneinflüsse gehören, die wir noch nicht vollständig verstehen.

Dieses kurze Papier ist in sechs grundlegende Abschnitte unterteilt: Erstens, die Bedeutung der wissenschaftlichen Methode für das Verständnis der physikalischen Welt; Zweitens, das sich verändernde Klima; Drittens, die Bedeutung des Treibhauseffekts, einschließlich Kohlendioxid, für das Leben auf diesem Planeten; Viertens, Probleme mit globalen Klimamodellen, die verwendet werden, um die katastrophalen Folgen zunehmender Treibhausgase, insbesondere Kohlendioxid, vorherzusagen; Fünftens, moderne physikalische Beweise, die eine alternative Analyse des Treibhauseffekts stützen; und Sechstens, ein Vorschlag für politische Maßnahmen, die die Nation ergreifen muss.

Abschnitt 1: Die wissenschaftliche Methode

Die wissenschaftliche Methode ist ein Prozess, bei dem Fehler im Denken und in den Konzepten beseitigt werden, indem die Konzepte ständig strengen Tests unterzogen werden, wobei alle verfügbaren und dafür geeigneten physikalischen Beweise verwendet werden. Wenn sich die physikalischen Beweise ändern, müssen auch die Konzepte entsprechend angepasst werden. Das 20. Jahrhundert begann ohne Relativitätstheorien oder Quantenmechanik, die die klassische Physik auf den Kopf stellten, und ohne den Glauben, dass sich Kontinente nicht bewegen. Heute nutzen wir diese Konzepte und erleben einen ständigen Wandel in der Kommunikation, Elektronik und ähnlichen Technologien. Wer weiß, was neue Entwicklungen bringen werden?

Mit dem dramatischen Wandel unseres Wissens über die physikalische Welt, einschließlich der Wissenschaft und der Wissenschafts-basierten Technologie, wie z. B. Atomwaffen, erlangten die Wissenschaftler politischen Einfluss und Verantwortung. Die strikte Anwendung der wissenschaftlichen Methode, insbesondere durch Wissenschaftler, die bei der US-Regierung angestellt sind oder von ihr gefördert werden und die der amerikanischen Öffentlichkeit gegenüber verantwortlich sind, sollte kein Thema sein. Politische Überzeugungen müssen beiseite gelassen werden. Steven Koonin (der leitende Wissenschaftler des Energieministeriums unter der Obama-Regierung), der mit komplexer mathematischer Physik, mathematischer Modellierung und dem IPCC-Prozess vertraut ist, schrieb:

„Philip Handler, ein ehemaliger Präsident der Nationalen Akademie der Wissenschaften, wies 1980 in einem Leitartikel auf das Problem hin, das auch vier Jahrzehnte später noch unheimlich nachhallt:

Die einzigartige Rolle der Wissenschaftler bringt eine besondere Verantwortung mit sich. Wir sind die Einzigen, die objektive Wissenschaft in die Diskussion einbringen können, und das ist unsere vorrangige ethische Verpflichtung. Wie Richter sind wir verpflichtet, persönliche Gefühle beiseite zu lassen, wenn wir unsere Arbeit tun. Wenn wir das nicht tun, nehmen wir der Öffentlichkeit das Recht, fundierte Entscheidungen zu treffen, und untergraben ihr Vertrauen in das gesamte wissenschaftliche Unternehmen. Gegen Wissenschaftler als Aktivisten ist überhaupt nichts einzuwenden, aber Aktivismus, der sich als Wissenschaft ausgibt, ist schädlich.“[1]

Seit den 1970er Jahren hat sich die Zahl der Beweise (Daten) für den Treibhauseffekt und den Einfluss zunehmender Treibhausgase auf die Erdatmosphäre und damit auf das Klima dramatisch erhöht. Es obliegt den Wissenschaftlern der Regierung und den von der Regierung geförderten Wissenschaftlern, die wissenschaftliche Methode anzuwenden und diese neuen Daten (Beweise) in ihre Berichte einzubeziehen, damit sie die amerikanische Öffentlichkeit nicht in die Irre führen.

Abschnitt 2: Das sich ändernde Klima

Der Atmosphärenphysiker Richard Lindzen ist bekannt für seine Arbeiten im Bereich der dynamischen Meteorologie, der atmosphärischen Gezeiten, der Ozonphotochemie, der quasi-biennialen Oszillation und der Iris-Hypothese. Lindzen beschrieb die allgemein akzeptierte Sichtweise des Klimasystems der Erde als Zirkulation zweier Flüssigkeiten (Atmosphäre und Ozeane), die miteinander und mit dem unebenen Land in Wechselwirkung stehen und durch die Rotation der Erdkugel in Turbulenzen versetzt werden, wodurch die Flüssigkeiten und das Land einer ungleichmäßigen Erwärmung durch die Sonne ausgesetzt werden. (Auch der Energiefluss von der Sonne zur Erde variiert.) Das gesamte System beinhaltet eine Flüssigkeitsdynamik, die nicht vollständig verstanden wird. Daher:

Die Tatsache, dass diese Zirkulationen Wärme zur und von der Oberfläche transportieren, bedeutet, dass die Oberfläche selbst nie im Gleichgewicht mit dem Weltraum ist. Es gibt nie ein genaues Gleichgewicht zwischen der von der Sonne einfallenden Wärme und der von der Erde erzeugten Abstrahlung. Das liegt daran, dass in den Ozeanen immer Wärme gespeichert (und wieder abgegeben) wird. Daher schwankt die Oberflächentemperatur immer etwas.“ [Interpunktion leicht verändert][2]

Nach der Erörterung der beträchtlichen Energieübertragungen durch die Phasenwechsel des Wassers bringt Lindzen den Treibhauseffekt zur Sprache und stellt fest:

„… dass die beiden bei weitem wichtigsten Treibhaussubstanzen Wasserdampf und Wolken sind. Wolken sind auch wichtige Reflektoren für das Sonnenlicht.

Die Einheit zur Beschreibung der Energieflüsse ist Watt pro Quadratmeter. Der Energiehaushalt dieses Systems umfasst die Absorption und die Wiederabgabe von etwa 200 Watt pro Quadratmeter. Eine Verdoppelung des CO2 führt zu einer Störung dieses Budgets um 2 %. Das gilt auch für geringfügige Veränderungen der Wolken und anderer Merkmale, und solche Veränderungen sind üblich …“

Lindzen schließt den Abschnitt ab, indem er über „unerzwungene“ natürliche Schwankungen spricht, die erst nach 1.000 Jahren auftreten können. Der Klimawandel umfasst also zwei Bereiche der Physik, für die wir keine umfassenden, durch physikalische Beweise belegten Theorien haben: 1) die Strömungsdynamik und 2) der Treibhauseffekt.

Abschnitt 3: Der Treibhauseffekt

Der Treibhauseffekt macht die Erde bewohnbar. John Tyndall, der ab 1859 Laborexperimente entwickelte, erkannte, dass Treibhausgase die Atmosphäre erwärmen, indem sie den Wärmeverlust von der Oberfläche in den Weltraum verlangsamen. Diese Verlangsamung der Abstrahlung von Infrarotenergie in den Weltraum macht die Erde bewohnbar, wobei das wichtigste Treibhausgas der Wasserdampf ist. Tyndall stellte fest, dass der Einfluss einiger Treibhausgase nicht proportional zu ihren Konzentrationen ist.[3]

Jahrzehntelange Laborexperimente zeigen, dass Kohlendioxid nur bei extrem niedrigen Konzentrationen ein wirksames Treibhausgas ist. Seine Wirksamkeit ist bei weniger als der Hälfte der Konzentration erschöpft, die es hatte, als der Mensch begann, fossile Brennstoffe zu nutzen. Die Erhöhung der Kohlendioxidkonzentration durch den Menschen ist so, als würde man ein dünnes Laken auf eine dicke Bettdecke legen – es bewirkt wenig oder gar nichts.

In den 1970er Jahren, als Teile der Welt eine wirtschaftliche Entwicklung durchliefen und die Kohlendioxidkonzentration anstieg, zeigten die Oberflächentemperaturen der Erde eine Abkühlung statt einer Erwärmung. Der Nationale Forschungsrat bildete ein einflussreiches Gremium, das behauptete, dass, obwohl Laborexperimente zeigen, dass Kohlendioxid eine bescheidene Auswirkung auf die Temperatur hat, die leichte Erwärmung durch Kohlendioxid – weniger als 3 Prozent der gesamten atmosphärischen Erwärmung – durch den Anstieg des Wasserdampfs stark verstärkt würde. Dies war eine Vermutung, ohne physikalische Beweise. Die Vermutung führte dazu, dass aus einem bescheidenen maximalen Anstieg von 1 Grad Celsius (°C) aufgrund einer Verdoppelung des Kohlendioxids allein ein spekulativer Gesamtanstieg von 3°C wurde.[4]

Das IPCC und viele wissenschaftliche Gremien in den USA haben diese Vermutung in ihre unbestätigten Annahmen aufgenommen. Seit 1979 haben die USA jedoch eine umfangreiche Sammlung von Beobachtungen der Atmosphäre mit Hilfe von Satelliten entwickelt. Vierzig Jahre gemessener atmosphärischer Temperaturtrends, der einzige umfassende globale Temperaturdatensatz, der existiert, bestätigen ein Jahrhundert von Laborexperimenten. Die Auswirkungen des zunehmenden Kohlendioxids sind gering, viel geringer als die natürlichen Schwankungen. An der Oberfläche ist es schwierig, die Zunahme des Treibhauseffekts von den natürlichen Schwankungen zu trennen.

[Hervorhebung vom Übersetzer]

Auch die spekulierte Verstärkung durch erhöhten Wasserdampf ist nicht zu finden. Seit über 40 Jahren stellen die USA Daten über den Treibhauseffekt selbst zusammen, die die Temperaturtrends in der Atmosphäre bestätigen – eine Zunahme des Kohlendioxids führt zu einer mäßigen Erwärmung. Die derzeitige Erwärmung der Atmosphäre beträgt 0,1°C pro Jahrzehnt seit Januar 1979, oder etwa 0,6°C seit Januar 1979, oder etwa 1,4°C pro Jahrhundert. Dies liegt in der Mitte der niedrigsten Schätzungen der Erwärmung, die derzeit vom IPCC entwickelt werden, der von einem geringen Anstieg des Kohlendioxids ausgeht. Darin sind alle Treibhausgase und natürliche Schwankungen enthalten. Er liegt innerhalb der Bandbreite der natürlichen historischen Erwärmung[5].

Auf der Grundlage von NOAA-Beobachtungen auf dem Mauna Loa, Hawaii, tritt die maximale atmosphärische Kohlendioxidkonzentration jedes Jahr im Mai auf. Die Messungen im Mai stiegen von 339 ppm im Jahr 1979 auf 419 ppm im Jahr 2021. Dies ist ein Anstieg von 80 ppm oder 24%. Der Anstieg der atmosphärischen Temperaturen aus allen Quellen betrug jedoch nur 0,5°C. Die am besten geeigneten physikalischen Beweise stützen nicht die Befürchtung, dass die Zunahme des Kohlendioxids eine gefährliche Erwärmung verursacht[6].

Damit eine Zunahme des Kohlendioxids zu einer Erwärmung der Erdoberfläche führen kann, muss sich die Atmosphäre schneller erwärmen als die Erdoberfläche, aber das Gegenteil ist der Fall. Die wahrscheinlichen Ursachen für die Oberflächenerwärmung sind die Verstädterung, Veränderungen der Ozeanzirkulationen und Sonnenschwankungen, die wir noch nicht vollständig verstehen, und nicht die Treibhausgase. Im Allgemeinen ignorieren diejenigen, die Oberflächendaten verwenden, um eine gefährliche Erwärmung zu behaupten, solche Veränderungen. Sie verwenden Modelle, die nie validiert wurden (anhand physikalischer Beweise aus der Atmosphäre), um 30 bis 80 Jahre in die Zukunft zu spekulieren.

Abschnitt 4: Probleme mit den globalen Klimamodellen

In seinem Buch „Unsettled“ zeigt Steven Koonin zahlreiche Mängel im IPCC-Prozess auf, die behoben werden müssen, wenn die Ergebnisse für die öffentliche Politik genutzt werden sollen. Zu den schwerwiegenderen Mängeln, die Koonin diskutiert, gehören:

A) eine Verwechslung der Skala zwischen Celsius und Kelvin bei der Schätzung des Einflusses einer Verdoppelung des Kohlendioxids, was zu erheblichen Fehlern führt, und

B) die IPCC-Modelle folgen nicht dem Erwärmungstrend in den Aufzeichnungen der Oberflächentemperatur zwischen 1910 und 1940.

Koonin weist auch auf die Komplexität der Klimamodelle hin, welche die Oberfläche und die Atmosphäre in verschiedene hypothetische Boxen, so genannte Zellen, unterteilen. Für alle Zellen werden genaue Messungen benötigt, die es aber nicht gibt. Außerdem sind die Zellen so groß, dass wichtige Wetterereignisse übersehen werden können. Am wichtigsten ist, dass die IPCC-Schlussfolgerungen politisch und nicht wissenschaftlich sind:

„Und – ein sehr wichtiger Punkt – dieSummaries for Policymakersdes IPCC werden stark von Regierungen beeinflusst, wenn nicht sogar geschrieben, die ein Interesse an der Förderung bestimmter politischer Maßnahmen haben. Kurz gesagt, es gibt viele Möglichkeiten, die Objektivität des Prozesses und des Produkts zu korrumpieren.“

Ein Buch des japanischen Klimatologen und ehemaligen NASA-Forschers Mototaka Nakamura zeigt die Unzulänglichkeiten der Erdoberflächentemperaturen auf und hält sie für unzuverlässig vor 1980.

Ein quasi-globales Beobachtungssystem gibt es erst seit etwa 40 Jahren, seit der Einführung der künstlichen Satellitenbeobachtung. Vor dieser Zeit wurden die Temperaturdaten über extrem kleine Gebiete (bezogen auf die gesamte Erdoberfläche) gesammelt und weisen daher eine starke räumliche Verzerrung auf. Wir verfügen über eine unzureichende Menge an Daten, um den Trend der globalen mittleren Oberflächentemperatur für die Zeit vor der Satellitenbeobachtung zu berechnen. Diese starke räumliche Verzerrung stellt die Aussagekraft des „Trends der globalen mittleren Oberflächentemperatur“ vor 1980 in Frage[7].

Nakamura geht auch auf Versuche ein, seine Ansichten zu diskreditieren, die jedoch fehlschlugen. Im Gegensatz zu Koonin, der die Entwicklung der globalen mittleren Oberflächentemperatur vor 1980 akzeptiert, stellt Nakamura fest, dass diese Entwicklung höchst fragwürdig ist. So ist beispielsweise seit über 2.000 Jahren bekannt, dass Veränderungen in der Landnutzung, wie die Trockenlegung von Feuchtgebieten, die Abholzung von Wäldern, die Bewässerung, die Verstädterung usw., zu einer Veränderung der lokalen Klimatemperaturen führen. Nakamura stellt fest, dass die globalen Oberflächentemperaturtrends auf einigen wenigen, stark lokalisierten Messungen beruhen und die gesamte Aufzeichnung, auf der die globalen Klimamodelle beruhen, stark verzerrt sein kann. Vergleicht man die Ergebnisse globaler Klimamodelle mit dem, was in der Atmosphäre geschieht, wo der Treibhauseffekt auftritt, so überschätzt das Modell die erwärmende Wirkung von Kohlendioxid und anderen Treibhausgasen erheblich. Beide Autoren beanstanden die Vorgehensweise des UN IPCC und der US-Regierung bei der Bewertung der Auswirkungen von Treibhausgasen als äußerst problematisch.

Die Auswirkungen der Treibhausgase auf die atmosphärische Temperatur sind weitaus geringer als in den Modellen dargestellt. Christy et al. verglichen vier verschiedene Satelliten-Datensätze, vier verschiedene Wetterballon-Datensätzr und vier Sätze von Wetter-Reanalysen mit dem Durchschnitt der Modellsimulationen, die im Fünften Sachstandsbericht des IPCC verwendet wurden. Die Forscher stellten fest, dass die Modelle die tatsächliche Entwicklung der atmosphärischen Temperatur stark überschätzen und dass die Diskrepanz immer größer wird. Globale Klimamodelle mögen nützliche Lehrmittel sein, aber sie sind für die Regierungspolitik in Bezug auf Treibhausgase nicht geeignet[8].

Abschnitt 5: Aktuelle physikalische Beweise, die eine alternative Analyse des Treibhauseffekts unterstützen

Im 20. Jahrhundert kam es zu großen Veränderungen in der Physik, wie der Relativitätstheorie und der Quantenmechanik, die die physikalischen Eigenschaften der Natur auf molekularer, atomarer und subatomarer Ebene beschreibt. Die Quantenmechanik führte zu einem Bereich der Physik, der als Atomare, Molekulare und Optische Physik (AMO) bezeichnet wird und die Entwicklung von Datenbanken ermöglichte, die zur direkten Berechnung des Treibhauseffekts in der Atmosphäre verwendet werden können [9].

Mit Hilfe der HITRAN-Datenbank haben die AMO-Verantwortlichen W. A. van Wijngaarden und W. Happer den Einfluss von Wasserdampf, Kohlendioxid, Ozon, Distickstoffoxid und Methan in einer wolkenfreien Atmosphäre auf die Erhöhung der globalen Temperaturen geschätzt. Unter den derzeitigen atmosphärischen Bedingungen haben ein Anstieg des Wasserdampfs und des Kohlendioxids nur minimale Auswirkungen auf die Temperaturen. Endlich haben wir Berechnungen, die mit den Messungen der Vorgänge in der Atmosphäre übereinstimmen. [10]

Abschnitt 6: Wie es weitergeht

Wissenschaftliche Integrität erfordert, dass die Regierung Biden die strengste Anwendung der wissenschaftlichen Methode anwendet.

Wie oben gezeigt, unterstützen Beobachtungen mit der Technologie des 21. Jahrhunderts bestimmte Konzepte des 20. Jahrhunderts und weisen andere als falsch aus. Wissenschaftliche Integrität erfordert, dass die Verwaltung keine langfristigen Modelle für die Politik verwenden sollte, solange die Modelle nicht die hohen Standards für die Verifizierung und Validierung erfüllen, die von den Sandia National Laboratories für die Modellierung der Zuverlässigkeit von Kernwaffen erfüllt werden, oder die Standards, die vom Apollo-Team von Wissenschaftlern und Ingenieuren für die bemannte Erforschung des Mondes gefordert werden[11], [12].

Da es derzeit keine physikalischen Beweise für eine gefährliche globale Erwärmung durch Treibhausgase oder deren Auswirkungen und auch keine physikalischen Beweise für eine Klimakrise gibt, sollte die Regierung die atmosphärischen Temperaturtrends und die MODTRAN- und HITRAN-Datenbanken nutzen, um die Auswirkungen zunehmender Treibhausgase in der Atmosphäre abzuschätzen. Außerdem sollte die Regierung weiterhin

● die Überwachung der atmosphärischen Temperaturen, wie sie seit 40 Jahren durchgeführt wird, und

● die ausgehende elektromagnetische Strahlung überwachen, wie dies im Rahmen des CERES-Projekts geschieht.

Vor allem aber sollte die Biden-Regierung die Öffentlichkeit darüber informieren, dass es keine aktuelle Bedrohung gibt und dass sie die bestmögliche Wissenschaft zur Überwachung der Situation einsetzt, um sicherzustellen, dass sich keine Bedrohung entwickelt.

This article is adapted from a version that first appeared on the website of the Science and Environmental Policy Project (SEPP) July 28, 2021, and is used by permission.

Endnotes

[1] Steven E. Koonin, Unsettled: What Climate Science Tells Us, What It Doesn’t, and Why It Matters, BenBella Books, Inc, 2021 Kindle Edition; p 10, Introduction.

[2] Richard Lindzen, Global Warming for the Two Cultures, Global Warming Policy Foundation, October 2018.

[3] John Tyndall, Heat, a Mode of Motion, 5th ed., 1875, p. 359; the book is available in PDF.

[4] Ad Hoc Study Group on Carbon Dioxide and Climate, Massachusetts Institute of Technology, Jule G. Charney, Chairman, et al., Carbon Dioxide and Climate: A Scientific Assessment, presented to the Climate Research Board, Assembly of Mathematical and Physical Sciences, National Research Council, National Academy of Science, 1979.

[5] Roy W. Spencer, UAH Global Temperature Update for June 2021: -0.01 deg. C, July 2, 2021. Data from Global Temperature Report, Earth System Science Center, The University of Alabama in Huntsville, June 2021, data from https://www.nsstc.uah.edu/climate/.

[6] Data from NOAA, Global Monitoring Laboratory, Mauna Loa, Hawaii, accessed July 26, 2021.

[7] Motokaka Nakamura, Confessions of a climate scientist: The global warming hypothesis is an unproven hypothesis, Kindle Edition, October 2019.

[8] John R. Christy, Roy W. Spencer, William D. Braswell & Robert Junod, “Examination of space-based bulk atmospheric temperatures used in climate research,” International Journal of Remote Sensing, March 8, 2018.

[9] Iouli E. Gordon, The HITRAN Database, Harvard-Smithsonian Center for Astrophysics, Atomic and Molecular Physics Division, accessed July 12, 2019.

[10] W. A. van Wijngaarden and W. Happer, “Dependence of Earth’s Thermal Radiation on Five Most Abundant Greenhouse Gases,” Atmospheric and Oceanic Physics, June 4, 2020. Link to prepublication version.

[11] William L. Oberkampf, Timothy G. Trucano, and Charles Hirsch, Verification, Validation, and Predictive Capability in Computational Engineering and Physics, Sandia National Laboratories, Sand Report, February 2003.

[12] One More Mission, The Right Climate Stuff Team.

Link: https://cornwallalliance.org/2021/08/comments-on-federal-scientific-integrity/

Übersetzt von Christian Freuer für das EIKE

 




Milankovitch-Zyklen und Baumring-Proxys: Der Hockeyschläger im IPCC AR 6

Stephen McIntyre

Obwohl Klimawissenschaftler immer wieder behaupten, dass Fehler in ihren „Hockeyschläger“-Proxy-Rekonstruktionen keine Rolle spielen – dass es keine Rolle spielt, ob sie Daten auf dem Kopf stehend verwenden; dass es keine Rolle spielt, ob sie einzelne Reihen auswählen, je nachdem, ob sie im 20, Jahrhundert ansteigen; dass es keine Rolle spielt, wenn sie Reihen verwerfen, die nicht in die „richtige“ Richtung gehen („hide the decline“); dass es keine Rolle spielt, ob sie kontaminierte Daten oder beschädigte Kiefernzapfen verwendet haben; dass solche Fehler keine Rolle spielen, weil der Hockeystick selbst keine Rolle spielt – der IPCC bleibt süchtig nach Hockeyschlägern: Und siehe da, Abbildung 1a der neu aufgelegten Summary for Policymakers enthält – was sonst – ein Hockeystick-Diagramm. Wenn Sie Michael Manns Hockeystick schon für schlecht hielten, dann stellen Sie sich einen neu aufgelegten Hockeystick von neu aufgelegten Klimawissenschaftlern vor. Wie die Klimawissenschaftler sagen, ist es noch schlimmer, als wir dachten.

Seltsamerweise erscheint dieses führende Diagramm der Zusammenfassung der politischen Entscheidungsträger nicht im Bericht selbst. (Zumindest konnte ich es in Kapitel 2 nicht finden.) Es ist jedoch eindeutig das Ergebnis von PAGES2K Consortium (Nature 2019) und Kaufman et al (2020), die ich beide kurz auf Twitter kommentiert habe (siehe hier).

Es ist schwer zu sagen, wo man anfangen soll.

Der Gedanke/dieDefinition eines Temperatur-„Proxy“ ist, dass er eine Art lineare oder nahezu lineare Beziehung zur Temperatur hat, wobei die Fehler weißes Rauschen oder rotes Rauschen niedriger Ordnung sind. Mit anderen Worten: Wenn man sich eine Reihe von tatsächlichen Temperatur-„Proxies“ ansieht, würde man erwarten, dass die Reihen ziemlich ähnlich und konsistent aussehen.

Aber das ist nicht das, was man bei den vom IPCC verwendeten Daten sieht. Im IPCC-Bericht oder sogar in den zitierten Artikeln würde man das nie erfahren, denn die Autoren dieser Temperatur-Rekonstruktionen der letzten ein oder zwei Jahrtausende vermeiden es peinlich genau, die zugrunde liegenden Daten darzustellen. Für mit der Materie nicht vertraute Leser ist es schwer, die extreme Widersprüchlichkeit der zugrundeliegenden „Proxy“-Daten angesichts der vorgetäuschten Präzision des IPCC-Diagramms vollständig zu erfassen.

Viele der in diesem Beitrag besprochenen Reihen, einschließlich fast aller HS-förmigen Reihen, wurden bereits in Blogbeiträgen von Climate Audit (tag/pages2k) von vor 2, 5, 10 oder sogar 15 Jahren oder in Tweets von 2019 und 2020 (siehe hier) besprochen.

Die PAGES2019 ist keine „zufällige“ Auswahl von Proxies, sondern wurde anhand von Ex-post-Kriterien ausgewählt. Wie Rosanne d’Arrigo vor vielen Jahren vor dem NAS-Gremium erklärte: Wenn man Kirschkuchen machen will, muss man zuerst Kirschen pflücken.

Der PAGES2019-Datensatz besteht aus 257 Proxys, die aus dem vorherigen PAGES2017-Datensatz mit 692 Proxys ausgewählt wurden, der zuvor aus Tausenden von Proxyserien ausgewählt worden war, die von vielen Autoren im Laufe der Jahre gesammelt worden waren.

Um den Lesern einen Überblick über die zugrundeliegenden Daten – und nicht über das massierte Endprodukt – zu geben, habe ich drei Chargen von jeweils 11 zufällig ausgewählten Reihen aus PAGES2017, PAGES2019 und dann PAGES2019 nordamerikanischen Baumringen aufgezeichnet und dann jede Charge kommentiert. (Die Stichproben wurden mit der R-Formel sample(1:K, 11) ausgewählt, wobei K die Größe des Datensatzes ist, aus dem eine Stichprobe gezogen wird.) In jedem Fall gab es in der Regel Serien, die ich bereits untersucht hatte, sowie zahlreiche nicht beschreibbare Serien, die bemerkenswert und wichtig sind, weil die meisten Proxies nicht beschreibbar sind und man dies sehen muss, um sie zu verstehen.

Dieser Beitrag wird noch einige Tage in Arbeit sein, da ich einige Abschnitte zu speziellen Themen habe, die ich versuchen werde, nach und nach hinzuzufügen, wenn ich Zeit habe.

Eine erste Reihe: PAGES2017 Proxies

Zur ersten Veranschaulichung sehen Sie unten eine Stichprobe von 11 PAGES2017-Reihen. Die auf PAGES2019 übertragenen Reihen sind in blau dargestellt. Als Referenz ist die IPCC-Kurve in rot dargestellt. Wie Sie unschwer erkennen können, sind die meisten der Reihen unscheinbar und kurz. Nur eine Reihe in dieser Stichprobe (Cape Ghir temperature alkenones) hat die Form eines Hockeyschlägers, aber sie geht nach unten:

Die oben gezeigte Kap-Ghir-Reihe ist in Grad Celsius angegeben, hat aber ein offensichtliches Problem: Sie geht nach unten. (Siehe frühere Climate Audit-Diskussion der Cape Ghir-Alkenonreihe hier). Und dies ist kein Fall, in dem die rohe Proxy-Messung eine umgekehrte Beziehung zur Temperatur hat (z. B. Korallen-Sr oder Korallen-d18O), sondern ein Fall, in dem die Temperaturschätzung aus dem Proxy nach unten geht. Alkenone sind ein sehr einzigartiger Näherungswert, da es allgemein anerkannte Formeln für die direkte Umrechnung von Alkenon-Messungen in Grad Celsius gibt. Alkenone werden häufig zur Schätzung der Ozeantemperatur in der Tiefsee verwendet und liefern konsistente Schätzungen für Millionen von Jahren. Dies ist etwas völlig anderes als bei Baumringmessungen, bei denen die Ringbreiten zunächst an das Alter und den Standort angepasst werden müssen, bevor versucht wird, eine lokale Ad-hoc-Formel zu entwickeln, um die lokale Temperatur anhand einer Art Durchschnitt der Ringbreiten zu schätzen.

Warum genau die lokalen Temperaturen am Kap Ghir (vor der Küste Marokkos) gesunken sind, ist ein Rätsel. Anstatt dieses Rätsel zu lösen, stellen Neukom und Co. die Reihen einfach auf den Kopf und folgen damit dem Beispiel von Upside Down* Mann, indem sie die Reihen nach ihrer Korrelation mit der instrumentellen Zieltemperatur ausrichten, sogar in ihrer „CPS“-Rekonstruktion – eine Technik, die normalerweise resistent gegen opportunistisches Umdrehen von Proxies ist, um die HS-Nähe einer endgültigen Rekonstruktion zu verbessern.

[*upside down = verkehrt herum, auf dem Kopf stehend]

Beachten Sie, was Neukom et al. mit ihrer „CPS“-Methode gemacht haben:

CPS ist (meines Wissens nach) in allen früheren Rekonstruktionen ein Mittelwert aus skalierten Daten, der ex ante an bekannten Eigenschaften des Proxys orientiert wurde. Das heißt, es wird nicht einfach eine Alkenon-Temperaturschätzung umkippen lassen, weil sie in die falsche Richtung geht. Aber diese heilsame Eigenschaft wird in Neukoms verfälschter Implementierung von CPS nicht beibehalten – eine Verfälschung, der die Gutachter eigentlich hätten widerstehen müssen. PAGES2K erstellte Temperaturrekonstruktionen mit sieben verschiedenen Methoden, die alle zu ähnlichen Ergebnissen wie CPS führten – was stark darauf hindeutet, dass diese anderen Methoden auch Serien wie Cape Ghir verfälschen.

Eine zweite Reihe: PAGES2019-Proxies

Hier ist eine zweite Zufallsstichprobe von Proxies, dieses Mal alle aus der zusätzlich überprüften PAGES2019-Untergruppe. Werfen Sie einen Blick darauf, Kommentare unten.

Es ist nicht so, dass PAGES2K ein Kompositum aus 257 Serien erstellt hat, die zwei Jahrtausende lang sind und alle oder die Mehrheit eine HS-Form haben. Eine Reihe in dieser Stichprobe sieht dem IPCC-Stick sehr ähnlich und wird weiter unten ausführlich diskutiert, aber die anderen sehen ganz anders aus.

Vier der Reihen in der Stichprobe sind sehr kurz – drei von ihnen sind sogar kürzer als die instrumentelle Aufzeichnung. Dabei handelt es sich um Korallen-Sr- oder Korallen-d18O-Reihen, die 25 % des PAGES2019-Datensatzes ausmachen. Die oben dargestellten extrem kurzen Aufzeichnungen sind typisch, ja fast universell für diese Klasse von Proxy-Daten. Sie weisen einen ausgeprägten Trend in der instrumentellen Periode auf. Dies steht im Gegensatz zu dem fehlenden Trend, den man bei den beiden langen Proxies in der mittleren Spalte oben sieht – einer Baumringreihe von Mt Read, Tasmanien (auch in MBH98 verwendet) und einer Eiskernreihe von Fisher aus dem Jahr 1983 von der Devon Ice Cap auf der Baffininsel (auch verfügbar für Multiproxy-Studien der 1990er Jahre).

Die kurzen Korallenserien liefern keine Informationen zu den mittelalterlichen und früheren Perioden, die man mit der modernen Periode zu vergleichen versucht. Was ist also ihre Funktion? Tragen sie etwas anderes bei, als den unscheinbaren längeren Serien einen Schnurrbart aufzusetzen?

Die Baumringreihen in dieser Stichprobe sind eher kurz; die Screening-Verfahren haben eher konzentrierte Reihen mit leichten Anstiegen. (Die Streifenrinden-Borstenzapfen-Chronologien, die im Hockeystick von Mann et al. so prominent waren, werden in PAGES2019 weiterhin verwendet – wie unten besprochen). Ich habe die Serie in der linken Spalte mit dem großen Anstieg (Asi_MUSPIG aka paki033) in einem Tweet-Thread 2019 hier diskutiert. Ich habe die zugrundeliegenden Ringbreitenmessungen bei der NOAA ausfindig gemacht und die Baumring-„Chronologie“ mit der Standardmethodik neu berechnet – siehe unten. Die hochfrequenten Details stimmen überein, was zeigt, dass die zugrunde liegenden Messdaten äquivalent sind. Die Chronologie der Originalautoren ist bei der NOAA nicht archiviert: Wie ist es PAGES2K also gelungen, einen solchen Hockeyschläger zu erhalten? Ich habe keine Ahnung.

Die „interessanteste“ Reihe in dieser Stichprobe ist die Bohrlochtemperatur-Rekonstruktion, die der späteren IPCC-Rekonstruktion so unheimlich ähnlich ist. Zufälligerweise (oder auch nicht) habe ich über diese Bohrlochtemperatur-Rekonstruktion (von WAIS Divide, Antarktis) im Februar 2019 geschrieben, ein paar Monate vor der Veröffentlichung von PAGES 2019 – siehe hier; scrollen Sie nach unten – für eine ausführlichere Analyse.

Ich habe in mehreren Beiträgen über die Mathematik der Bohrloch-Inversions-Berechnungen geschrieben, die vorgeben, die Temperaturen für Tausende von Jahren in der Vergangenheit anhand der heute im Bohrloch gemessenen Temperaturen zu schätzen. Diese Berechnungen erfordern die Inversion einer multi-kollinearen Matrix (mit einer Determinante nahe 0). Meiner Meinung nach sind fast alle Details, über die Fachleute schwadronieren, eine Art Chladni-Muster-Artefakt.

Aber das ist eine andere Geschichte. Hier war das Problem viel seltsamer. Einige Jahre zuvor war es mir (auf Umwegen) gelungen, eine Kopie des Codes zu erhalten, der zur Berechnung dieser Bohrlochinversion verwendet wurde (die nirgendwo archiviert ist). Der Code zeigte, dass die obersten 15 Meter des Bohrkerns aus der Berechnung gestrichen worden waren.

[Hervorhebung im Original]

Ich hatte ERHEBLICHE Schwierigkeiten, die zugrundeliegenden Bohrlochtemperaturen für einige berühmte Reihen zu bekommen. (Das NAS-Panel von 2006 zitierte ein solches Ergebnis, aber der ursprüngliche Autor {ein Mitarbeiter der US-Regierung} weigerte sich, die Daten zur Verfügung zu stellen, und meines Wissens sind sie nach wie vor nicht verfügbar). In diesem Fall waren die zugrunde liegenden und archivierten Bohrlochtemperaturen nebst deren Werten gelöscht worden. Unnötig zu erwähnen, dass sie verloren gegangen sind. Eine Inversion unter Verwendung aller Daten hätte nicht zu dem beeindruckenden Hockeystick im PAGES2019-Datensatz geführt, sondern zu einem erheblichen Rückgang in jüngster Zeit.

Na super, ein weiteres Beispiel für „hide the decline“.

Fairerweise muss man sagen, dass es, wie ich in einem früheren Beitrag feststellte, im oberen Teil des antarktischen Eisschildes dramatische jahreszeitliche Temperaturschwankungen gibt, die das ohnehin schon schwierige (und wahrscheinlich unlösbare) Problem der Inversion noch unlösbarer machen. In meinem Beitrag vom Februar 2019 habe ich ein Diagramm von van Ommen et al. (1999) gezeigt, das die dramatischen Veränderungen der Temperatur im Bohrloch im Laufe der Jahreszeiten darstellt: Es lässt sich eine Art gedämpftes Sinusmuster erkennen. In den obersten 15 Metern des Bohrkerns dominieren die saisonalen Veränderungen.

Beachten Sie, dass die Klinge auf dem Hockeyschläger in dieser IPCC-Reihe vollständig von der Wahl von 15 Metern als Grenzwert für die Bohrlochinversion abhängt. Bei einer Wahl von 20 Metern wäre die Klinge wahrscheinlich gänzlich verschwunden.

Die Tatsache, dass der oberste Teil des Bohrkerns wegen saisonaler Effekte ausgeschlossen werden muss, führt zu einer seltsamen Ironie: Die Schichten in 15 Metern Tiefe bei WAIS stammen aus den 1960er Jahren. Das IPCC hat sich also auf eine Reihe von Daten gestützt, die vorgeben, die Temperatur bis 2007 zu rekonstruieren, ohne jedoch die Eiskerne aus der Zeit zwischen 1965 und 2007 zu verwenden. Die Berechnung erfolgt ausschließlich anhand von Eiskernschichten aus der Zeit vor den 1960er Jahren. Hält das jemand für zuverlässig? Ich nicht.

Darüber hinaus ergibt die Rekonstruktion der WAIS-Divide-Bohrlochtemperatur ein völlig anderes Ergebnis als die weithin replizierten und gut verstandenen d18O-Isotopenreihen.

In Anbetracht der Fragen und Mängel im Zusammenhang mit der WAIS-Bohrlochinversionsreihe ist es absurd, dass diese Reihe (noch dazu eine Singleton-Reihe) in einem politikrelevanten Dokument verwendet werden soll. Die Tatsache, dass das endgültige IPCC-Diagramm dieser Müllreihe so ähnlich ist, wirft die Frage auf, was unter der Haube der multivariaten Berechnungen vor sich geht.

Eine dritte Reihe: PAGES2019 Nordamerikanische Baumringe

Nordamerikanische Baumringe (einschließlich einiger arktischer Serien) machen ~25% der PAGES2019 Proxies aus. Hier eine zufällige Auswahl:

Die meisten sind kurz und eher unscheinbar – nicht wie das endgültige IPCC-Diagramm.

Es gibt eine Reihe mit einem riesigen Hockeyschläger: Mackenzie Delta (Porter 2013); und zwei Reihen („GB [Great Basin]“ und nv512) mit auffälligen Schlussanstiegen. Aufmerksame Leser haben vielleicht schon etwas von dieser Geschichte mitbekommen.

Ich habe den Mackenzie Delta Super-Stick von Porter et al. (2013), einen Neuzugang in der Hockeystick-Fertigungstechnik, im Juli 2019 hier auf Twitter besprochen. Er stammt aus dem kanadischen Yukon, einem Gebiet, das in einer Studie von d’Arrigo et al. aus dem Jahr 2004 als typischer Ort für das klassische „Divergenzproblem“ galt – die Ringbreiten nehmen ab, während die Temperaturen steigen. Wie ist es Porter et al. also gelungen, einen Super-Stick zu finden, der Jacoby und d’Arrigo entgangen war, die seit langem nach Hockeyschlägern in Baumringdaten suchen und sich nicht scheuen, Kirschen zu pflücken, um Kirschkuchen zu backen?

Sie trieben „hide the decline“ auf eine Weise auf die Spitze, die von früheren Praktikern dieser dunklen Kunst nie in Erwägung gezogen worden war. Anstatt den Rückgang im Endprodukt zu verbergen, taten sie dies für einzelne Bäume: Wie in dem zugrundeliegenden Artikel erläutert, schlossen sie die „abweichenden Sequenzen“ einzelner Bäume aus, die die Frechheit besaßen, in den letzten Jahren ein rückläufiges Wachstum aufzuweisen. Selbst Briffa hätte niemals solch radikale Maßnahmen in Erwägung gezogen.

Fairerweise muss man sagen, dass der ursprüngliche Artikel von Porter et al. sowohl die tatsächliche (nicht beschreibende) Chronologie aller Bäume als auch den Superstick zeigte, der sich aus „hide the decline“ bei einzelnen Bäumen ergab: Die Entscheidung, den falschen Superstick zu verwenden, liegt bei Neukom und PAGES2019.

Stripbark Bristlecone Chronologien

Wie oben erwähnt, werden sich aufmerksame Leser an die Kennung nv512 erinnern. Es handelt sich dabei um eine der klassischen Graybill Stripbark BristleconeChronologien (Pearl Peak), von der wir beobachtet hatten, dass sie sowohl die MBH98 PC1 als auch die endgültige MBH98 Rekonstruktion dominiert. Sie (und andere wichtige Stripbark-Standorte) wurden in McIntyre und McKitrick (2005 GRL) Tabelle 1 aufgeführt:

Die Leser werden sich auch daran erinnern, dass das NAS-Gremium 2006 empfohlen hat, „Stripbark“-Chronologien bei Temperaturrekonstruktionen zu „vermeiden“. Obwohl die Klimagemeinschaft erklärt hat, die Empfehlungen des NAS-Gremiums umzusetzen, sind sie süchtig nach Stripbark-Chronologien, deren Eigenschaften gut bekannt sind. Fünf verschiedene PAGES2019-Serien verwenden Stripbark-Bristlecones (drei davon aus den ursprünglichen Graybill-Versionen): nv512 (Pearl Peak); nv513 (Mount Washington); ca529 (Timber Gap Upper); SFP (eine Aktualisierung der San Francisco Peaks, die az510 einbezieht) und GB (ein Verbund aus Pearl Peak, Mount Washington und Sheep Mountain, der sowohl Graybill- als auch aktualisierte Informationen verwendet).

2018 habe ich untersucht, wie sich die nordamerikanischen Baumringnetzwerke seit MBH98 verändert haben. Die einzige Konstante war die Abhängigkeit der Paläoklimatologen von Stripbark-Chronologien – ein Phänomen, das ich schon lange vor Climategate kommentiert hatte (unter Berufung auf Clapton et al. und Paeffgen et al.), sehr zum Ärger von Dendros, aber der Kommentar bleibt heute genauso wahr wie damals.

Conclusion

Viele dieser Probleme habe ich bereits im Juli 2019 erörtert, nur wenige Tage nach der Veröffentlichung des zugrunde liegenden Artikels (siehe hier). Ich erwarte zwar nicht unbedingt, dass die Rezensenten des IPCC meinen Twitter-Feed aufmerksam verfolgen, aber man kann sicherlich davon ausgehen, dass die Klimawissenschaftler des IPCC, die sich hauptberuflich mit diesen Themen befassen, kompetent genug sind, um Dinge zu bemerken, die ich an meinem ersten Tag, an dem ich mir PAGES2019 ansah, beobachten konnte. Aber ihre Blindheit ist immer wieder erstaunlich.

Link: https://climateaudit.org/2021/08/11/the-ipcc-ar6-hockeystick/

Übersetzt von Christian Freuer für das EIKE

 




Peak Oil – Fakten und Fiktionen

Rud Istvan

Ich habe mich entschlossen, diesen möglichen Gastbeitrag zu verfassen, der auf meinen drei E-Books basiert (die alle sehr günstig auf iBooks und Amazon Kindle erhältlich sind), weil Neulingsposter MI auf WUWT nicht verschwinden will und weiterhin OT falsches Peak-Oil-Zeug postet, das teilweise auf seinen Blog verweist, während er auf meine verschiedenen Kommentare zu ihm nicht antwortet. Ich kann mit Sicherheit niemanden irgendwo hin verweisen, auch nicht auf meine veröffentlichten eBooks. Hier ist also eine einfache WUWT-Zusammenfassung von „Peak Oil“-Fakten, kostenlos, aus diesen Büchern. Dave Middleton möge mir die möglichen Detailfehler des geologischen Laien in dem hier dargestellten Gesamtbild verzeihen, für das er sicherlich bessere Mittelstandskenntnisse hat als ich. Außerdem weiß ich aus früheren Kommentaren, dass hier seit Jahren einige mitlesen, die glauben, es gäbe kein solches Peak Oil-Ding. So wie es auch kein GHE oder kein ECS gibt. Dieser Beitrag richtet sich hauptsächlich an diejenigen, die das immer noch nicht glauben, zusätzlich zu MI.

Peak Oil

Irgendwann muss es ihn geben, denn kaum jemand behauptet, Öl sei kein fossiler Brennstoff.  Irgendwann muss also die derzeitige rasche Förderung alle früheren langsamen Anhäufungen übersteigen, so dass die Jahresproduktion irgendwann einen Höhepunkt erreicht. Die beiden abiotischen Öl-„Hypothesen“ (Gold 2001 und Ukraine 2011) sind beide objektiv widerlegt worden. Es bleibt nur noch die Frage, wann der Höhepunkt der fossilen Ölproduktion erreicht wird und wie stark der Rückgang der Produktion nach dem Höhepunkt ausfallen wird. Diese einfachen Fragen stehen in direktem Zusammenhang mit zwei nicht so einfachen Fragen. Erstens: Wie viel fossiles Öl muss noch entdeckt werden? Und zweitens, wie viel davon kann sinnvoll gefördert werden? Für die zweite Frage gibt es zwei weitere Unterfragen: zu welchem Preis; und alles um jeden Preis? Auf diese Fragen gehe ich hier nicht ein.

Modelle zur Berechnung von Peak Oil

Es gibt drei grundlegende statistische Modellierungs-Verfahren zur Schätzung dieses fast sicheren zukünftigen Höhepunkts der Entdeckungen von fossilem Öl. Die bekannteste ist die von Hubbert für die USA unter Verwendung einer symmetrischen logistischen Wahrscheinlichkeitskurve (fat tail). Für das konventionelle US-Öl lag er ungefähr richtig, für alles andere falsch. Es gibt auch die Probit-Transformation und das hyperbolische Creaming-Curve-Verfahren für jedes Becken, wobei letztere unten am Beispiel der Nordsee erläutert wird. (Alle diese Methoden werden in meinen E-Books erklärt, aber nicht hier.)

Die Probleme mit Hubberts ursprünglich angenommener Logistikkurven-Methode bestehen aus verschiedenen Teilen.

Erstens ist die konventionelle Kurve der Ölfeldförderung NICHT seine Logistikkurve. Sie hat dank der sekundären und tertiären Ölförderung einen langen fetten Schwanz. Technisch gesehen handelt es sich um eine Gamma-Funktionskurve. Ein gutes Beispiel ist der US-North Slope.

Zweitens galt seine Hypothese nur für „konventionelles Öl“, definiert als Viskosität API>10, das aus einem Reservoir mit >5% Porosität und einer Permeabilität >10 Millidarcies gefördert wird. Das bedeutet, dass sämtliches „Schweröl“, wie z. B. in den kanadischen „Teersanden“ oder im venezolanischen Orinoco (größte Schwerölreserve der Welt), und auch das gesamte neu gefrackte „dichte“ Schieferöl unberücksichtigt bleiben.

Drittens berücksichtigte seine Schätzung definitionsgemäß überhaupt nicht die späteren technologischen Fortschritte beim Fracking von Schieferöl (Tight Oil). Aber auch das Potenzial von gefracktem Schieferöl wurde grob überschätzt, wie ich in meinem E-Book „Blowing Smoke“ über Matroschka-Reserven und Reserven aufzeige. Nachfolgend ein Beispiel dafür, warum die Monterey-Schieferölreserve von offiziell über 15 Billionen Barrel laut EIA auf fast nichts laut USGS Monterey Shale ‚fold‘ Revision gesunken ist:

Gaviota State Park an der felsigen Küste des Pazifiks in Goleta, Santa Barbara County, Kalifornien

Die Plattentektonik hat im Monterey Shale nichts übrig gelassen, um horizontal zu bohren/zu fracken…. ein kleines geologisches Problem bei der horizontalen Bohrung/Frack-Ölförderung.

Aber wenn man all diese Dinge zusammenzählt und sie dann im Detail durchrechnet (in meinen ebooks), erhält man immer noch ungefähr die folgenden möglichen Ölförderspitzen aus der (immer noch falschen) ursprünglichen Hubbert-Logistikkurve:

Also ja, etwa 2023-2025 wird mit Sicherheit der Höhepunkt der Ölförderung erreicht sein.

Dies lässt sich auch auf andere Weise zeigen, zusammengefasst in den ebooks. Bei konventionellem Öl wurde in einer IEA-Erhebung von 2008 über die weltweit größten, etwa 800 produzierenden Ölfelder ein jährlicher Produktionsrückgang von etwa 5,7 % gemessen. Diese etwa 800 Felder machten in jenem Jahr etwa 85 % der gesamten konventionellen Ölproduktion aus. Die konventionelle Ölförderung erreichte also laut IEA um 2005 ihren Höhepunkt, was nahe an den verschiedenen Prognosen nach Hubbert liegt. Es gibt keine Möglichkeit, dass unkonventionelles Öl (angesichts der geringen Rückgewinnungsfaktoren) dies für viele Jahrzehnte in der Zukunft ausgleichen kann.

Aber aufgrund der Gammakurven für die Erschöpfung der Ölfelder wird es kein „plötzliches“ Ende der Welt geben, noch nicht einmal annähernd, wie es fälschlicherweise von diesem Hubbert-Logistikkurven-Peak-Oil-Modell oder von dem neuen Poster MI dargestellt wird. Es wird nur ein langsamer Rückgang sein, der vielleicht von Nahrungsmitteln überholt wird, selbst wenn es virtuelles Wasser gibt. Wie beim Klimawandel steckt der Teufel im Detail.

Link: https://wattsupwiththat.com/2021/08/12/peak-oil-facts-and-fictions/

Übersetzt von Christian Freuer für das EIKE