Das Ende des E-Auto-Traums, äh, Albtraums

Duggan Flanakin

Nachdem sich der amerikanische Traum in einen Albtraum verwandelt hat, unter anderem durch übermäßige Ausgaben, die zu den höchsten Zinssätzen des 21. Jahrhunderts geführt haben, ist es höchste Zeit zuzugeben, dass sich „auch der Traum vom Elektroauto in einen Albtraum verwandelt hat“, schreibt Melanie Mcdonagh im Telegraph.

Mcdonagh, die zugibt, dass sie nicht Auto fährt, weist auf viele Probleme hin, darunter die schrecklichen Auswirkungen, wenn ein schweres, leise fahrendes Elektrofahrzeug einen ahnungslosen Fußgänger oder Radfahrer trifft. Sie weist auch darauf hin, dass einige dieser „Fahrzeuge“ Daten über den Streckenverlauf und die Fahrgeschwindigkeit sammeln, die Regierungen (und Unternehmen) zur Fernüberwachung (und als Marketing-Gag) nutzen können. Ein weiteres Problem ist, dass die viel schwereren Elektrofahrzeuge Brücken zum Einsturz bringen und lange Umwege erzwingen könnten.

Mcdonagh hat jedoch kaum an der Oberfläche des Schlamassels gekratzt, den die Hipster-Kultur angerichtet hat, die glaubt, dass alles Heilige vor dem Gott der Kohlendioxid-Reduzierung geopfert werden muss. Es hat sich herausgestellt, dass die Herstellung von Elektrofahrzeugen trotz aller Subventionen bisher eine Fehlinvestition für die Autohersteller war.

Ford Motor Co. sagt, dass es in diesem Jahr 3 Milliarden Dollar mit dem Verkauf von Elektroautos verlieren wird, nach 900 Millionen Dollar im Jahr 2021 und 2,1 Milliarden Dollar im Jahr 2022, als das Unternehmen 96.000 Fahrzeuge verkaufte. Die Preissenkungen bei Ford und Tesla (und zweifellos auch bei anderen Unternehmen) sind nicht darauf zurückzuführen, dass die Fahrzeuge billiger zu produzieren sind, sondern darauf, dass die Nachfrage trotz der neuen Biden-Subventionen zurückgegangen ist. Wie Robert Bryce hervorhebt, hat Ford im ersten Quartal dieses Jahres mit jedem verkauften Elektroauto 66.446 Dollar verloren.

Ein Grund für die enormen Verluste sind die steigenden Preise für Batterie-Rohstoffe, die sich in einem Anstieg des volumengewichteten Durchschnittspreises für Lithium-Ionen-Batteriepacks um 7 Prozent von 2021 bis 2022 widerspiegeln. Die Biden-Subventionen sollen diese Kosten ausgleichen, so wie auch der Biden-Plan „Build in America“ (zumindest in Michigan durch chinesische Unternehmen) keine Chance hat, Chinas enormen Vorsprung bei der Produktion von Elektroautos und Batterien zu verringern.

Senator John Kennedy (R, LA) fragte kürzlich: „Wenn Elektroautos so toll sind, warum muss die Regierung die Leute dafür bezahlen, sie zu fahren?2

Ein neuer Bericht von J.D. Power weist auf eine Reihe von Gründen hin, warum die amerikanischen Verbraucher an Fahrzeugen mit Verbrennungsmotor festhalten. Die größten Einwände gegen E-Fahrzeuge sind die hohen Preise und die fehlende öffentliche Ladeinfrastruktur. Aber auch die Reichweite der Fahrzeuge, die Ladezeiten und die Gefahr von Netzausfällen, die E-Fahrzeuge unbrauchbar machen, schrecken ab. Weitere Bedenken sind Brände, Stromstöße, die zu Unfällen führen, Anhängelast und Reichweite sowie das Verhalten bei schlechtem Wetter.

Sogar ein Drittel der Generation Z, die die meiste Zeit ihres Lebens mit Pro-EV-Propaganda bombardiert wurde, gibt zu, dass sie wahrscheinlich kein E-Auto kaufen wird.

Es ist offensichtlich, dass der EV-Boom, so wie er ist, fast ausschließlich durch hohe Subventionen und einen Marketing-Hype angetrieben wurde, der von Bürokraten und Politikern initiiert wurde, von denen die meisten keinen Hintergrund im Autoverkauf oder in der Dienstleistungsbranche haben. Ihre Vorgehensweise ist Bestechung und Gaunerei (Menschen durch Marktmanipulation zu unerwünschten Entscheidungen zwingen). Die Automobilhersteller fangen an, vor diesen Methoden zurückzuschrecken, und sei es nur, weil sie sehen, dass ihr Kundenstamm schrumpft, wenn die Menschen nicht mehr die Fahrzeuge kaufen können, die sie jahrzehntelang benutzt haben.

Ford und andere Unternehmen rühmen sich zwar mit der Anhängelast ihrer Elektroautos, aber der Beweis liegt im Detail, wie man sagt. MotorBiscuit hat letzten Monat berichtet, dass der Ford F-150 Lightning und der Rivian R1T auf eine Anhängelast von 10.000 Pfund aufgerüstet werden können – weit weniger als der F-150 mit Benzinmotor, aber mit einer durchschnittlichen Reichweite von nur 88 Meilen. Das reicht kaum für mehrere Schleppvorgänge an einem Tag oder für das Abschleppen eines Anhängers zu einem Campingplatz, der 100 oder mehr Meilen von zu Hause entfernt ist.

Stellen Sie sich vor, Sie packen Ihre Familie in den Lkw, spannen den Airstream an und fahren in die Berge, um ein Wochenende am See zu verbringen. Eine Ladestation zu finden, an der man den Wohnwagen nicht abkoppeln muss, um an die Steckdose zu gelangen, ist eine große Herausforderung, und das muss man auf einer 300-Meilen-Reise mehrmals tun. Bei einer maximalen Reichweite von 90 Meilen müssen Sie alle 60 oder 70 Meilen aufladen, was 30 Minuten oder mehr pro Aufladung dauert. So verliert man einen ganzen Tag für jede Strecke. Sehr praktisch.

Viel schlimmer sind jedoch die Risiken und Herausforderungen für Abschleppwagenfahrer, die mit einem Elektrofahrzeug unterwegs sind, das nicht mehr funktioniert. Die Fahrzeuge sind nicht nur schwer, sie stehen auch fest und sind potenziell anfällig für spontane Brände, die mit normalen Feuerlöschern nicht gelöscht werden können. In einem Bericht des National Transportation Safety Board aus dem Jahr 2021 heißt es: „Die in einer beschädigten Hochspannungs-Lithium-Ionen-Batterie verbleibende Energie, die so genannte gestrandete Energie, birgt die Gefahr eines elektrischen Schlags und birgt das Potenzial eines thermischen Durchgehens, das zu einer Wiederzündung der Batterie und einem Brand führen kann.“

Natürlich berücksichtigen die Erbsenzähler mit ihren glorreichen Visionen für eine vollelektrische Zukunft (vollgestopft mit Stromausfällen, Preiserhöhungen und anderen Tricks, um die Mehrheit der Menschen ganz von der Straße fernzuhalten) KEINEN der wirklichen Gründe, warum Menschen Autos und Lastwagen fahren. Ihre einzige Überlegung scheint die imaginäre Verringerung der Kohlendioxidemissionen zu sein, die ihren Computermodellen zufolge nur durch Unannehmlichkeiten für „die kleinen Leute“ erreicht werden kann.

Sollten diese „kleinen Leute“ jedoch Politiker wählen, die die inflationären Subventionen und diktatorischen Vorschriften (einschließlich derer, die Gasgeräte verbieten, die Leistung von Geschirrspülern und Klimaanlagen beeinträchtigen usw.) beenden, werden sich die Autohersteller, die stark in E-Fahrzeuge investiert haben, an die realen Marktbedingungen anpassen und ihre lang gehegten Technologien weiter verbessern.

In der heutigen Welt, die zunehmend von oben nach unten bestimmt wird, kann man „nicht einmal über die Probleme mit Elektroautos sprechen, ohne dass man angegriffen wird“, so Mcdonagh. Das beginnt sich bereits zu ändern, vor allem im freiheitsliebenden Amerika, das eine jahrhundertelange Liebesaffäre mit der offenen Straße hat.

In der Zwischenzeit lauert im Verborgenen eine Option, die sowohl das Kohlendioxid in der Atmosphäre reduzieren als auch ICE-Fahrzeuge auf der Straße halten könnte. Synthetische E-Treibstoffe auf Wasserstoffbasis mögen heute teuer sein, aber sie können ICE-Fahrzeuge heute und morgen antreiben, ohne eine Nation den Launen der wahnsinnigen chinesischen Führung zu opfern.

Autor: Duggan Flanakin is a Senior Policy Analyst with the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2023/05/13/death-of-the-ev-dream-er-nightmare/

Übersetzt von Christian Freuer für das EIKE

 




Wie ich erfuhr, was Exxon wusste; oder wie Rahmstorf & Cie die Quellen unüberprüft ließen

Die Überlagerung von Abbildung 1b zeigt stattdessen, dass S-R-O die spekulative Bedeutung von Mitchells (1977) Abbildung 5 nicht kannte. Sie waren nachlässig. Sie haben Mitchells (1977) Abbildung 5 nicht bis zu ihrem Ursprung zurückverfolgt. Sie waren offensichtlich nicht neugierig, woher sie stammt. Und sie setzten es trotz allem für ihre Zwecke ein

von Pat Frank

In dem „Exxon Knew“ sich als nicht wissend herausstellt.

Anklagende Polemik, getarnt als Nachrichten aus der Klimawissenschaft, ist heutzutage an der Tagesordnung. Vielleicht haben Sie schon einmal eine E-Mail an einen Wissenschaftsreporter geschrieben, in der Sie Ihre Bestürzung über die unreflektierte Voreingenommenheit des IPCC zum Ausdruck gebracht oder eine Korrektur der angeblichen Wissenschaft angeboten haben. Das habe ich auch getan, und zwar viele Male. In der Regel gibt es keine Antwort.

Kürzlich hat ein Wissenschaftsreporter konstruktiv geantwortet, als ich eine E-Mail über einen Artikel über „Klimaleugnung“ und „den kohlefinanzierten Angriff auf saubere Energie“ schrieb. Zu den genannten Klimaleugnern gehörten John Droz, Steve Milloy – offenbar ein König unter den Klimaleugnern – und Donald Trump.

Lange Rede, kurzer Sinn: Der Reporter schickte meine Kommentare an den emeritierten Prof. Martin Hoffert (New York University), einen langjährigen Klimamodellierer mit einigen beeindruckenden frühen theoretischen Arbeiten. Er antwortete.

Dieser Essay ist der nukleare Fallout, der aus diesem kleinen Funken entstanden ist.

I. Der Eintritt in den Sumpf der Verzweifelten

Im Jahr 2019 hatte Prof. Hoffert vor dem House Subcommittee on Civil Rights and Civil Liberties. des Repräsentantenhauses ausgesagt. Das Thema lautete „Untersuchung der Bemühungen der Ölindustrie, die Wahrheit über den Klimawandel zu unterdrücken.“ Auf der Liste der Beweisführer stand auch Prof. Naomi Oreskes.

Prof. Hoffert hatte in den 1980er Jahren unter Vertrag mit Exxon-Klimaforschern gearbeitet. In seiner Aussage vor dem Unterausschuss des Repräsentantenhauses äußerte Prof. Hoffert großen Respekt vor ihrer Professionalität und ihrem Talent. In seiner Aussage (pdf) heißt es jedoch: „… Exxons nach außen gerichtete Desinformation und die Finanzierung von Klimawandelleugnern, obwohl unsere interne Forschung genau das Gegenteil vorhersagte. Sie sind, wie Naomi Oreskes sie nennt, ‚Händler des Zweifels“, die aus der Tatsache Kapital schlagen, dass mehr Menschen Fernsehwerbung sehen als wissenschaftliche Literatur lesen.“

Zusammen mit seiner kritischen Antwort an meinen Gesprächspartner schickte Prof. Hoffert seine Aussage vor dem Kongress und ein Exemplar von (2023) Supran, Rahmstorf und Oreskes (S-R-O), in dem der Beweis erbracht wird, dass „Exxon es wusste“.

Die Geschichte von S-R-O (2023) besagt, dass Exxon-Wissenschaftler 1980 mit absoluter Sicherheit wussten, dass die CO₂-Emissionen aus fossilen Brennstoffen das Klima erwärmen würden, dass die Wissenschaftler die Exxon-Geschäftsführung entsprechend informiert hatten und dass die Exxon-Geschäftsführung die Öffentlichkeit in den folgenden 40 Jahren zynisch und mit böser Absicht belogen hat. Alles nur um des Profits willen, und die Zukunft der eigenen Kinder sei verdammt.

Das anklagende Zentrum von S-R-O (2023) ist ihre Abbildung 2; hier Abbildung 1 unten links.

Abbildung 1, links, stellt die Exxon-internen und veröffentlichten Lufttemperaturprognosen zusammen, welche von verschiedenen Klimamodellen aus den 1970er- bis 2000er-Jahren erstellt wurden, die mit spekulativen Szenarien für künftige CO₂-Emissionen arbeiten. Die rote Linie ist die beobachtete Lufttemperatur, die zum Vergleich herangezogen wird.

Abbildung 1 (rechts) zeigt, wie die gleichen Projektionen aussehen würden, wenn sie mit allen Unsicherheitsbalken versehen würden, die sich aus den Fehlern ergeben, die Klimamodelle bei der Simulation des Erdklimas im simulierten Wolkenanteil machen.

Die Kombination der Gesamtheit der Projektionen mit der Gesamtheit ihrer Unsicherheitsbalken wird Mitternacht auf der Gesamtheit der Grafik einläuten.

Die Wolken steuern den Wärmeenergiefluss in der Atmosphäre. Der thermische Energiefluss bestimmt die Lufttemperatur. Stimmt die Bewölkung nicht, stimmt auch die Lufttemperatur nicht.

Abbildung 1: Links, Abbildung 2 aus (2023) Supran-Rahmstorf-Oreskes. Die Originallegende lautet: „Zusammenfassung aller Projektionen der globalen Erwärmung (nominale Szenarien), die von ExxonMobil-Wissenschaftlern in internen Dokumenten und begutachteten Veröffentlichungen (graue Linien) berichtet wurden, überlagert von historisch beobachteten Temperaturveränderungen (rot)“. Die Projektionen stammen aus den Jahren 1977 bis 2003. Rechts: S-R-O (2023) Abbildung 2 mit allen Projektions-Unsicherheitsbalken, die den Kalibrierungsfehler der Modellwolken ausdrücken, addiert und zusammen aufgetragen.

Über den gesamten Zeitraum von 1977 bis 2003 war die untere Nachweisgrenze für Klimamodelle >100x größer als die jährliche Störung der Treibhausgasemissionen. S-R-O (2023) behauptet, dass Klimamodelle etwas aufdecken können, das für Klimamodelle völlig unsichtbar ist. Das ist so, als würde man beim Betrachten eines Wassertropfens mit einer 4fachen Juwelierlupe ausrufen: „Bakterium!“.

S-R-O (2023) behaupten, sie wüssten jetzt, und die Exxon-Wissenschaftler und das Exxon-Management wussten 1977 um die Auswirkungen einer Störung auf das Klima, die mehr als 100-mal kleiner ist als die kleinste Störung, die das Klimamodell überhaupt auflösen kann.

Eine vollständige Bestandsaufnahme der Simulationsfehler von Klimamodellen ist sehr viel umfangreicher. Auch hier und hier. Die von den Exxon-Temperaturprognosen übermittelten Klimainformationen sind gleich Null.

Exxon konnte das damals nicht wissen, und auch sonst niemand. Exxon weiß es auch jetzt nicht, und auch sonst niemand, denn die totale Unwissenheit von 1977 herrscht auch heute noch vor.

Der S-R-O (2023) Grafik in Abbildung 1, links, fehlen auch die Unsicherheitsbalken bekannter systematischer Messfehler, die den Vorhang der Projektion über die beobachteten Temperaturen zurückziehen würden. S-R-O (2023) Abbildung 2 würde dann die tatsächlich verfügbaren Klimainformationen korrekt wiedergeben.

II. In dem Exxon enthüllt, was es wusste.

Die Exxon-Dokumente, auf die sich S-R-O (2023) stützt, sind praktischerweise auf der vom Climate Investigations Center eingerichteten und gepflegten Website Climate Files gesammelt. Wenn man sie liest, fällt einem die professionelle Vorsicht der Exxon-Wissenschaftler auf. Sie schrieben klar und deutlich über den zeitgenössischen Mangel an Wissen. Über die Unkenntnis (im Jahr 1977), ob der Anstieg des CO in der Atmosphäre auf die Emissionen fossiler Brennstoffe oder auf die Abholzung von Wäldern zurückzuführen ist. Über Klimamodelle, die noch viel Arbeit benötigten und nicht in der Lage waren, die Auswirkungen unserer CO-Emissionen auf das Klima vorherzusagen.

In einem internen Schreiben vom 29. Januar 1980 von Walter Eckelmann, dem stellvertretenden Leiter der Exxon-Abteilung für Wissenschaft und Technik, an Morey O’Loughlin im Exxon-Vorstand heißt es: „Science & Technology ist der Ansicht, dass die Anreicherung von Kohlendioxid in der Atmosphäre ein potenziell ernstes Problem ist, das die Ergebnisse einer riesigen weltweiten Forschungsanstrengung erfordert, bevor quantitative Vorhersagen über die Wahrscheinlichkeit und den Zeitpunkt weltweiter Klimaveränderungen getroffen werden können.“

Potenziell“ und „riesige weltweite Forschungsanstrengungen“ bringen die Bedeutung auf den Punkt. Sie wussten es nicht und es musste viel getan werden, um es herauszufinden.

Trotz gegenteiliger banaler parteipolitischer Beteuerungen weiß niemand im Voraus über die Zukunft Bescheid.

Mr. Eckelmann führte weiter aus, dass die Bemühungen die Ressourcen eines einzelnen Unternehmens (d.h. Exxon) übersteigen. Er erklärte weiter, dass Exxon ein laufendes jährliches Forschungsprogramm in Höhe von 600.000 $ für das CO₂-Klima-Problem habe und auch die CO₂-Klima-Arbeiten des Marine Biological Lab in Woods Hole und des Scientific Committee on Problems of the Environment (SCOPE) mit jeweils 20.000 $ pro Jahr finanziere.

M.B. Glaser war der Leiter des Umweltprogramms von Exxon. Sein 1982 veröffentlichtes Buch The CO₂ „Greenhouse“ Effect (pdf) fasst die Situation auf eine äußerst vernünftige Weise zusammen: „Es wäre verfrüht, jetzt signifikante Änderungen der Energieverbrauchsmuster vorzunehmen, um diesem potenziellen Problem und all den wissenschaftlichen Unsicherheiten zu begegnen, da solche Schritte schwerwiegende Auswirkungen auf die Wirtschaft und die Gesellschaft der Welt haben könnten.“

Und dies: Die Teilnehmer eines AAAS-DOE-Workshops über die gesellschaftlichen und institutionellen Reaktionen auf einen CO₂-Anstieg „waren der Meinung, dass sich die Gesellschaft innerhalb der dann bestehenden wirtschaftlichen Beschränkungen an einen CO₂-Anstieg anpassen kann. Einige der getesteten Anpassungsmaßnahmen würden nicht mehr als ein paar Prozent des für die Mitte des nächsten Jahrhunderts geschätzten Bruttosozialprodukts verschlingen.“

In seinem Bericht von 1984 über das Forschungsprogramm des Exxon-Konzerns zu Klima und CO₂ schrieb A. J. Callegeri Folgendes:

– Modelle werden eingesetzt, um physikalische Auswirkungen (Szenarien) zu erforschen und als Prognoseinstrument.

– Modellierung des Kohlenstoffkreislaufs zur Bestimmung des Verbleibs von CO₂-Emissionen aus fossilen Brennstoffen.

– Gültigkeit der Modelle nicht erwiesen.

– Die Komplexität des Kohlenstoffkreislaufs und des Klimasystems erfordert viele Annäherungen und Parametrisierungen.

– Geologische und historische Daten sind für die Validierung von Modellen unzureichend.

Kommt Ihnen das bekannt vor? Callegeris Argumente sind auch heute, fast 40 Jahre später, noch völlig zutreffend.

Im Dezember 2000 schrieb der Exxon-Klimaforscher Brian Flannery an Lloyd Keigwin (pdf), der 1996 mit Sargasso Sea berühmt wurde, und zeigte sich bestürzt über die falsche Darstellung sowohl seiner Position als auch der Unterstützung der Klimawissenschaft durch Exxon. Der Brief ist sehr lesenswert. Die Verneinung von Naomi Oreskes „Exxon Knew“-Anschuldigungen könnte nicht deutlicher sein.

Kurz gesagt, die eindeutige Beweislage ist, dass Exxon nichts wusste und sich in gutem Glauben bemühte, es herauszufinden.

Die gesamte Behauptung, Exxon habe es gewusst, beruht auf der unausgesprochenen, falschen und völlig unsinnigen Umarmung von Klimamodellen – selbst derer von 1977 – als Wahrheitsmaschinen. Gottes Lippen zu ihren Terminals werden zu Flachbildschirmen.

Exxon wusste, dass sie es nicht wussten und dass es auch sonst niemand wusste (und immer noch nicht weiß).

III. Darin verraten Supran, Rahmstorf und Oreskes, was sie 2023 noch nicht wussten.

Bei der Lektüre von S-R-O (2023) wurde ich neugierig auf ihre Abbildung 1b (unten). Der schwarze Teil von Abbildung 1b stammt aus dem Jahr 1977. Im Juli desselben Jahres war es Vugraph Nr. 11 in einer Präsentation von J. F. Black vor dem Managementausschuss der Exxon Corporation. J. F. Black war ein wissenschaftlicher Berater von Exxon.

J. J. F. Black hielt seinen Vortrag 5 Jahre vor der Veröffentlichung des ersten CO₂/δ¹⁸O-Datensatzes in Eiskernen durch Neftel et al. Daher war ich neugierig auf den Ursprung der 150.000-jährigen Temperaturaufzeichnung in Abbildung 1b. Und wie wurden die Lufttemperaturen in der Tiefenzeit im Jahr 1977 zugeordnet?

Abbildung 2: S-R-O (2023) Abbildung 1b. Die schwarze Linie und die Achsen, komplett mit Verwischungen, sind J. F. Blacks Vugraph #11 von 1977. Die rote Linie ist eine geglättete „Erdsystem-Modellsimulation (Ganopolski und Brovkin (2017)) der letzten 150.000 Jahre, die nur durch orbitalen Antrieb angetrieben wird, mit einem angehängten moderaten anthropogenen Emissionsszenario.“ S-R-O (2023) Supporting Information (pdf).

Wie wurden also die in Abbildung 1b dargestellten Fahrenheit-Temperaturen (linke Ordinate) im Jahr 1977 zugeordnet? S-R-O zitiert Abbildung 1b nach J. J. M. Mitchell, Carbon dioxide and future climate. Environmental Data Service (März): 3-9 (1977), aber der S-R-O-Link führt zu einer Zusammenfassung des Energieministeriums, nicht zu der Studie.

Nach einigen Bemühungen habe ich das EDS-Zeitschriftenarchiv gefunden (42 MB pdf). Der Artikel von Mitchell erscheint in der Ausgabe vom März 1977, S. 3-9. S-R-O (2023) Abbildung 1b war ursprünglich als Abbildung 5 in Mitchell (1977) zu finden.

Mitchell hat aber auch keine Quellenangabe für seine Abbildung 5 gemacht. Er sagte auch nicht, wie die Temperaturskala zugeordnet wurde. Woher kommt das alles?

Lange Rede, kurzer Sinn: Ich suchte in der Literatur nach einem Proxy, der Daten für Mitchell im Jahr 1977 geliefert haben könnte. Diese Suche führte zu J. D. Hays, et al. (1976) „Variations in the Earth’s Orbit: Pacemaker of the Ice Ages“ (Variationen des Erdorbits: Schrittmacher der Eiszeiten).

Hays (1976) berichtete über Foraminiferen δ¹⁸O aus zwei Tiefsee-Sedimentkernen aus dem südlichen Indischen Ozean (nahe 45° südlicher Breite und 85° östlicher Länge). Hays (1976) verwendete auch Radiolarien, um die sommerlichen subantarktischen Meerestemperaturen (SST ±3 C; 95% CI) an den Kernstandorten zu schätzen.

Hays (1976) wäre 1977 der beste verfügbare Wissensstand gewesen, als Mitchell seine Arbeit schrieb und Black 1977 seinen Vortrag bei Exxon hielt.

Aber es wird kompliziert. Abbildung 3 zeigt, dass die Temperaturgrafik von Mitchell (1977) sehr ähnlich aussieht wie die Stufen 1-6 der foraminiferalen δ¹⁸O-Reihe in Abbildung 9A von Hays (1976).

Abbildung 3: Ausschnitt der ersten 150.000 Jahre vor der Gegenwart der δ¹⁸O-Reihe aus Abbildung 9A von Hays et al. (1976). Die Abszisse ist im Vergleich zu S-R-O (2023) Abbildung 1b umgedreht.

In der Tat scheint Mitchell Abbildung 5 eine handgezeichnete Reproduktion von Hays (1976) Abbildung 9A zu sein.

Abbildung 4 unten zeigt S-R-O (2023) Abbildung 1b und das Foraminiferen-δ¹⁸O von Hays (1976) über denselben Zeitbereich und mit skalierten Abszissen. Die vertikalen roten Linien positionieren die beiden Grafiken. Die Jahresstriche stimmen alle gut überein. Die vertikalen grünen Linien, die auf den δ¹⁸O-Merkmalen von Hays (1976) zentriert sind, stimmen gut mit denen von Mitchell (1977) überein.

Abbildung 4: S-R-O (2023) Abbildung 1b in einer Linie mit meiner digitalisierten Version von Hays (1976) Foraminiferen δ¹⁸O. Die vertikalen grünen Linien durchqueren die Zentren der schwarzen Merkmale von Mitchell (1977) und stimmen gut mit Hays δ¹⁸O überein. Die Merkmale der von S-R-O (2023) verwendeten Simulation (rot) stimmen bei -130 kyr und „Today“ nicht mit Mitchell, 1977 oder Hays (1976) überein.

Hays (1976) enthielt auch eine ebenso umfangreiche SST-Reihe, aber Abbildung 5 von Mitchell (1977) stimmt nicht mit ihr überein. Die folgende Abbildung 5 zeigt S-R-O (2023) Abbildung 1b und die SST-Reihe der Radiolarien von Hays (1976) über denselben Jahresbereich und mit den Abszissen im Register. Die vertikalen grünen Linien zeigen eine gute zeitliche Übereinstimmung zwischen den radiolaren SSTs und der in S-R-O (2023) verwendeten Simulation (rot).

Allerdings stimmen die Formen und Intensitäten der SST von Hays (1976) nicht mit den Merkmalen von Mitchell (1977) überein. Die Simulation von S-R-O (2023) stimmt mit dem Timing der SST-Reihe von Hays (1976) überein, aber zwischen 25-105 kYr bp stimmen die Formen und Intensitäten nicht überein.

Abbildung 5: Die S-R-O (2023) Abbildung 1b stimmt gut mit der zeitlichen Abfolge der SST-Reihe der Radiolarien von Hays (1976) überein. Die vertikalen grünen Linien verlaufen durch die Zentren der SST-Merkmale. Mitchell (1977) stimmt mit Hays (1976) zwischen -105 kYBP und -20kYB überein, aber die Intensitäten und Strukturen sind unterschiedlich. S-R-O (2023) (rot) stimmt mit der SST-Zeitreihe von Hays (1976) überein, aber nicht mit den Formen oder Intensitäten. Ganz rechts unten sind die ersten 150 kYr der von Hays (1976) veröffentlichten Foraminiferen-δ¹⁸O-Reihe dargestellt. Die Ähnlichkeit sowohl von S-R-O (2023) als auch von Mitchell (1977) mit Hays (1976) δ¹⁸O, aber nicht mit Hays (1976) SST, ist bei der Betrachtung offensichtlich.

Sowohl Mitchell (1977) als auch S-R-O (2023) entsprechen offensichtlich viel eher der Form der δ¹⁸O-Reihe von Hays (1976) als der SST-Reihe von Hays.

Es scheint, dass weder Supran, Rahmstorf noch Oreskes eine sorgfältige Quellenprüfung von Mitchell (1977) vorgenommen haben. S-R-O erkannte im Jahr 2023 offensichtlich nicht, dass Mitchell (1977) Hays (1976) 150 kJr. δ¹⁸O-Reihe für den Indischen Ozean umfunktioniert hatte, um sie als globale Lufttemperaturreihe zu verwenden.

Es scheint auch wahrscheinlich, dass S-R-O nicht wusste, dass Abbildung 5 von Mitchell (1977) allem Anschein nach eine handgezeichnete Karikatur der δ¹⁸O-Kurve von Hays (1976) ist.

Huch?

IV: In welchem das Temperaturproblem auftaucht.

Wie hat Mitchell also die Temperaturen seiner Abbildung 5 zugeordnet? Mitchell hatte offensichtlich Hays (1976) gelesen. Hays (1976) wiederum schätzte die eiszeitliche Temperatur auf etwa 6±1,5 C kälter als heute, was -10,8±2,7 °F entspricht.

Es ist sehr wahrscheinlich, dass Mitchell (1977) die Temperaturskala seiner wiederverwendeten δ¹⁸O-Reihe in Abbildung 5 von der glazialen Schätzung in Hays (1976) übernommen hat.

Vor diesem Hintergrund wandelte Mitchell die Celsius-Werte von Hays (1976) in Fahrenheit um, schätzte die gegenwärtige globale Durchschnittstemperatur auf 15,6 °C [60°F] und verwendete die Schätzung von Hays (1976), um das glaziale Minimum zu ermitteln. Die gestrichelte Linie zeigt die heutige Temperatur von 60 °F, und das letzte glaziale Minimum vor 25 000 Jahren ist etwa 9 °F kälter. Der Mitchell-Fahrenheit-Bereich liegt bei 49-65 °F. Die Fahrenheit-Skala ist lediglich eine lineare Interpolation.

Die von Hays (1976) ermittelte Radiolarien-Proxy-Temperatur weist eine sehr große statistische Unsicherheit auf (95% CI = ±3 C). Hays (1976) schätzte die SST des südlichen Indischen Ozeans, wo die Sedimentkerne gebohrt wurden. Es handelte sich nicht um einen globalen Durchschnitt der SST.

Mitchell hat offenbar die δ¹⁸O-Reihe von Hays (1976) zur Angabe der globalen durchschnittlichen Lufttemperatur verwendet. Wir wissen nicht, warum. Vielleicht hielt er sie für angemessen. Ungeachtet dessen wurde seine Zuordnung von S-R-O (2023) unkritisch akzeptiert, als sie die Arbeit für Abbildung 1b durchführten.

Das aufkommende Rätsel ist, wie Stefan Rahmstorf und seine angewandte Erdsystemmodell-Lufttemperatursimulation eine handgezeichnete Karikatur von 150.000 Jahren δ¹⁸O des Indischen Ozeans exakt reproduzierte, die als spekulative globale Lufttemperatur umgetauft wurde.

Ich wiederhole: Stefan Rahmstorf wendete die Erdsystemmodell-Simulation auf handgezeichnete Cartoon-Wackler eines δ¹⁸O-Doppelgängers des Indischen Ozeans an, als ob es sich um physikalisch reale globale Lufttemperaturen handelte.

V. In dem die benthische Verzweiflung offenbart wird.

Es kommt noch schlimmer. S-R-O (2023) hat dargestellt, dass ihre Simulation des Erdsystemmodells in Abbildung 1b (rot) in (Ganopolski und Brovkin (2017)) veröffentlicht wurde (siehe die Legende zu Abbildung 2 oben). Dieses Papier enthält jedoch keine Simulationen der Lufttemperatur. Die S-R-O-Simulation (2023) findet sich in Abbildung 1 von Ganopolski und Calov (2011), die dasselbe CLIMBER-2-Erdsystemmodell verwendeten.

Ganopolski und Calov (G-C) (2011) simulierten 800.000 Jahre Lufttemperaturanomalien in der Antarktis und Grönland. S-R-O (2023) verwendeten die Antarktis-Simulation in ihrer Abbildung 1b, die Abbildung 5 von Mitchell (1977) überlagert.

Abbildung 6 unten vergleicht die Antarktis-Simulation von G-C (2011) mit Abbildung 1b von S-R-O (2023). Der Vergleich ist etwas unübersichtlich, offenbart aber eine Tiefe des unwissenschaftlichen Benthos, welche die Profs. Supran, Rahmstorf und Oreskes entweder nicht bemerkt oder einfach übergangen hatten.

Abbildung 6: Oben, Abbildung 1b von Supran, Rahmstorf und Oreskes (2023), mit ausgewählten Merkmalen kommentiert. Unten: Abbildung 1e von Ganopolski und Calov (2011), die ersten 150 kJahre der „Antarktischen Temperaturanomalie“, Simulation mit ausgewählten Anmerkungen und einem zusätzlichen 150 kJahre langen Strich (bp tick). Die oberen und unteren Abszisse sind in der Registrierung. Die roten vertikalen Linien fixieren den Vergleich am Paläo-Minimum und dem modernen Maximum. Die vertikalen grünen Linien durchqueren die Zentren der wichtigsten G-C (2011) Merkmale. Die horizontalen violetten Linien markieren die Merkmale, die mit Temperaturangaben versehen wurden.

Die ausgewählten Temperaturen wurden aus Messungen mit dem Millimeterlineal extrahiert. Ihre Genauigkeit ist nicht besser als ±0,2 °C. Abbildung 6 zeigt eine gute Übereinstimmung zwischen der G-O (2011) Antarktis-Simulation und dem S-R-O (2023) Overlay in Abbildung 1b. Die G-O (2011) Grönland-Temperaturanomalienreihe ist strukturell ähnlich, aber viel kälter (Tabelle 1).

Tabelle 1: Nicht identische Temperaturen der identischen G-C (2011) Ant. und S-R-O 2023-Simulationen:

Ant.= Antarktis, Grnld = Grönland

In den unterstützenden Informationen von S-R-O (2023) wird die Simulation in Abbildung 1b ohne die technische Darstellung wie folgt beschrieben: „Die Beobachtungen in Feld 1b von Abb. 1 spiegeln eine geglättete (LOWESS) Erdsystem-Modellsimulation der letzten 150.000 Jahre wider, die nur durch orbitalen Antrieb angetrieben wird, mit einem angehängten moderaten anthropogenen Emissionsszenario.“

S-R-O (2023) selbst beschreibt Abbildung 1b als „eine geglättete Erdsystem-Modellsimulation der letzten 150.000 Jahre“ und „eine geglättete Erdsystem-Modellsimulation der letzten 150.000 Jahre, die nur durch orbitalen Antrieb angetrieben wird, mit einem angehängten moderaten anthropogenen Emissionsszenario.“

Und die erweiterte Beschreibung von S-R-O (2023): „Tafel 1b von Abb. 1 ist ein Diagramm der globalen Erwärmungs-‚Wirkung von CO₂ auf einer interglazialen Skala’“, das ursprünglich vom Klimawissenschaftler J. Murray Mitchell Jr. im März 1977 veröffentlicht und vom Exxon-Wissenschaftler James Black in einem privaten Briefing an das Exxon Corporation Management Committee 4 Monate später reproduziert wurde. Wenn man die ursprüngliche Grafik mit den von einem modernen Erdsystemmodell simulierten Temperaturen (in rot) vergleicht, zeigt sich, dass die Exxon-Wissenschaftler ihre Vorgesetzten zutreffend vor einer „Kohlendioxid-induzierten ‚Super-Zwischeneiszeit'“, wie Mitchell Jr. es nannte, warnten, die die Erde heißer machen würde als zu jedem anderen Zeitpunkt in mindestens 150.000 Jahren.

Die Formulierung von S-R-O (2023) impliziert direkt, dass die Abbildung 5 von Mitchell (1977) eine Aufzeichnung der globalen Lufttemperatur darstellt.

Hays (1976) beschrieb jedoch die wiederverwendete δ¹⁸O-Reihe (S. 1122) wie folgt: „Abwärtsgerichtete Variationen von δ¹⁸O in den Bohrkernen spiegeln Veränderungen in der ozeanischen Isotopenzusammensetzung wider, die hauptsächlich durch das Wachsen und Schwinden der Eisschilde der nördlichen Hemisphäre verursacht werden. Somit ist das δ¹⁸O in unseren subantarktischen Bohrkernen eine Aufzeichnung des Klimas der nördlichen Hemisphäre.“

Mit anderen Worten, die δ¹⁸O-Reihe spiegelt großräumige Schwankungen des Klimas im Laufe der geologischen Zeit wider. Nicht die globale Lufttemperatur.

Foraminiferen-δ¹⁸O bleibt heute problematisch für die Verwendung als SST-Proxy. Waelbroeck et al. (2005) stellen fest: „Die große Diskrepanz zwischen den δ¹⁸O-Werten lebender und rezenter fossiler Foraminiferen unterstreicht die Schwierigkeit, vergangene Oberflächenbedingungen auf der Grundlage von δ¹⁸O fossiler planktonischer Foraminiferen zu rekonstruieren.“

VI. In welchem der Marianengraben der Verzweiflung ausgelotet wird.

Da die Simulationen der Anomalien in der Antarktis von S-R-O (2023) und G-C (2011) angeblich identisch sind, sollte man auch identische Anomalie-Temperaturen erwarten. Abbildung 6 und Tabelle 1 zeigen jedoch, dass diese, die identisch sein sollten, in Wirklichkeit sehr unterschiedlich sind. Die S-R-O (2023) Temperaturen sind alle kleiner als die G-C (2011) Homologe, außer bei 0 kYr bp. Wie konnte das passieren?

Stefan Rahmstorf ist der Klimamodellierer der Gruppe. Er ist wahrscheinlich in Treibsand gelaufen. Aber ich möchte hier sehr vorsichtig mit meiner Sprache sein.

Die einzige vernünftige Erklärung für die geringeren Temperaturunterschiede innerhalb der S-R-O (2023) Abbildung 1b Überlagerung im Vergleich zur G-C (2011) Simulation ist, dass die G-C Simulation in künstliche Übereinstimmung mit der von Mitchell (1977) handgezeichneten, wenig präzisen, thermisch spekulativen, physikalisch zweideutigen Version der Hays (1976) Foraminiferenreihe des südlichen Indischen Ozeans komprimiert wurde.

Die rote Überlagerung in Abbildung 1b ist keine genaue Wiedergabe der Simulation von G-O (2017)(sic), wie sie dargestellt wurde. Aus G-C (2011} (der offensichtlichen Quelle) wurde das rote Overlay zu einer Korrespondenz komprimiert, die einer spekulativen Karikatur eine falsche physikalische Bedeutung verleiht und Mitchell (1977) einen völlig falschen analytischen Kredit einräumt. Es ist schwer vorstellbar, wie diese Fehlkonstruktion unbeabsichtigt sein konnte.

Abbildung 1b zeigt nicht, dass Exxon davon wusste (was, wie wir bereits mit Sicherheit wissen, nicht der Fall war und auch nicht sein konnte). Exxon ist aufgrund falscher Beweise angeklagt worden.

Die Überlagerung von Abbildung 1b zeigt stattdessen, dass S-R-O die spekulative Bedeutung von Mitchells (1977) Abbildung 5 nicht kannte. Sie waren nachlässig. Sie haben Mitchells (1977) Abbildung 5 nicht bis zu ihrem Ursprung zurückverfolgt. Sie waren offensichtlich nicht neugierig, woher sie stammt. Und sie setzten es trotz allem für ihre Zwecke ein.

Vielleicht sollten die Profs. Supran, Rahmstorf und Oreskes gefragt werden, wie das passiert ist.

Abbildung 1b ist paradigmatisch für den gesamten Korpus der AGW-bezogenen Konsens-Klimatologie.

VII. In dem eine zusammenfassende Feststellung des Exxon-Wissens wiedergegeben wird.

● Die Klimamodelle von Exxon sagten die künftige Temperatur nicht voraus.

● Die Wissenschaftler von Exxon wussten, dass die Klimamodelle von Exxon die künftige Temperatur nicht vorhersagen konnten.

● Die Manager von Exxon wussten, dass die Wissenschaftler von Exxon wussten, dass die Klimamodelle von Exxon die zukünftigen Temperaturen nicht vorhersagen.

● Exxon hat sich in gutem Glauben bemüht, die Zusammenhänge zwischen CO₂ und Klima zu verstehen.

● Die Exxon-Geschäftsführung finanzierte unabhängige Forschungen über CO₂-Klima-Zusammenhänge.

● Exxon wusste es nicht.

● Exxon-Manager und Wissenschaftler wussten, dass Exxon es nicht wusste.

● Geoffrey Supran, Stefan Rahmstorf und Naomi Oreskes betrachten alle Klimamodelle als Wahrheitsmaschinen.

● Ungeachtet der eindeutigen Beweise wissen Geoffrey Supran, Stefan Rahmstorf und Naomi Oreskes nicht, dass Exxon es nicht wusste. Bestenfalls.

● Supran, Rahmstorf, Oreskes (2023) liegt in allen wichtigen Punkten falsch.

VIII. In denen Urteile gefällt und Schlussfolgerungen gezogen werden.

1.Supran, Rahmstorf, Oreskes (2023) Die Abbildung 1b ist ein minimal aufsteigendes Denkmal für eine unvorsichtige Tendenz.

2.Die S-R-O (2023) Exxon Knew Anklageschrift ist bei der Beweisanhörung kläglich gescheitert.

3.Supran, Rahmstorf, Oreskes (2023) haben die bewusste Prüfung durch die Redakteure und Gutachter des Science Magazine bestanden.

4.S-R-O (2023) gleicht einem journalistischen Schauprozess.

5.Das Science Magazine ist in der Verfolgung der Anklage verwaltungstechnisch mit Andrey Vyshinsky verwandt.

6.So sieht die Kultur aus, die heute in den Zeitschriften des Establishments herrscht.

IX. Ich ziehe meinen Hut vor dem unbeugsamen Russell Cook und wünsche diesem Werk einen gewissen Nutzen.

Link: https://wattsupwiththat.com/2023/05/17/what-i-learned-about-what-exxon-knew/

Übersetzt von Christian Freuer für das EIKE

 




Bidens neue Abgasnormen beweisen: EVs sind ein Ladenhüter

Mandy Gunasekara

Die Regierung Biden hat neue Emissionskontrollnormen für Kraftfahrzeuge erlassen. Sie werden als die „ehrgeizigsten Klimavorschriften“ aller Zeiten bezeichnet und haben für Schlagzeilen gesorgt, aber die technischen Realitäten und die hohen Kosten haben dazu geführt, dass beide Vorschriften direkt auf eine Mauer zurasen.

Die Kategorie der leichten Nutzfahrzeuge umfasst Pkw, Lkw und Transporter und schreibt vor, dass bis zum Jahr 2032 67 % aller verkauften Neuwagen elektrisch betrieben werden müssen. Die Kategorie der schweren Nutzfahrzeuge umfasst 18-Rad-Fahrzeuge, Busse und andere Arbeitsfahrzeuge und schreibt vor, dass bis 2032 die Hälfte der neu verkauften Busse und ein Viertel der neu verkauften Lkw ebenfalls elektrisch betrieben werden müssen. Zum Vergleich: Im vergangenen Jahr betrug der Anteil der Elektrofahrzeuge an den Neuwagenverkäufen 5,8 % und bei den schweren Lkw weniger als 2 %. Diese vorgeschlagenen Standards sind nicht ehrgeizig, sondern stellen vielmehr eine neue Stufe des regulatorischen Wahnsinns dar.

Das Gesetz über saubere Luft (Clean Air Act, CAA) verpflichtet den EPA-Administrator, Fahrzeugvorschriften festzulegen, die darauf abzielen, Schadstoffe aus leichten Nutzfahrzeugen zu reduzieren, welche die öffentliche Gesundheit und die Umwelt negativ beeinflussen. Bei der Festlegung dieser Normen muss der Administrator die Machbarkeit neuer Technologien sowie die Kosten berücksichtigen. Das Team Biden versprach dies, als es sich verpflichtete, ein „datengesteuertes“ Ziel festzulegen. Aber es ist schwer zu erkennen, wie ein ernsthafter Experte die Vorstellung unterstützen kann, dass die Autohersteller in weniger als fünf Jahren, wenn sie mit der Konstruktion der Fahrzeuge für das Modelljahr 2032 beginnen, genügend Elektrofahrzeuge entwickeln, die riesige Menge an kritischen Mineralien beschaffen können, die für die Batterien benötigt werden, und skeptische Verbraucher davon überzeugen können, ihre Kaufprioritäten massiv zu ändern, um dieses Ziel zu erreichen.

Trotz zahlreicher staatlich geförderter Anreize ist die Verbreitung von Elektrofahrzeugen aus verschiedenen Gründen nach wie vor gering. Trotz der großen Fortschritte in der E-Fahrzeugtechnologie dauert das Aufladen der Batterien immer noch Stunden, während das Tanken von Benzin nur Minuten dauert. In Verbindung mit einem begrenzten Netz von Ladestationen sind E-Fahrzeuge nach wie vor schwer zu verkaufen. Sogar die Mehrheit der derzeitigen EV-Besitzer ist immer noch auf ein benzinbetriebenes Fahrzeug angewiesen – 78% besitzen ein zweites benzinbetriebenes Auto, um ihren Transportbedarf zu decken.

Auch die zukünftige Nachfrage ist nicht gegeben. Eine neue AP-NORC-Umfrage ergab, dass nur 19 % der Amerikaner „sehr wahrscheinlich oder äußerst wahrscheinlich“ auf Elektroautos umsteigen werden. Das Meinungsforschungsinstitut Gallup hat die Behauptung, dass die Amerikaner Elektrofahrzeuge nur langsam annehmen, ebenfalls in Zweifel gezogen. Noch beunruhigender für die Befürworter von Elektrofahrzeugen: Selbst wenn dieser Vorstoß möglich wäre, würde die U.S. Energy Information Administration (EIA) prognostizieren, dass bis 2050 nur 9% der US-Fahrzeuge elektrisch betrieben werden.

Die Regierung stellt sich taub, indem sie teure Alternativen zu zuverlässigen gasbetriebenen Autos anpreist. Viele Amerikaner haben Mühe, sich in der inflationären Wirtschaft Eier und Fleisch zu leisten. Es ist höchst unwahrscheinlich, dass Menschen mit niedrigem und mittlerem Einkommen ein Auto kaufen wollen, das durchschnittlich 54.000 Dollar kostet. Daran ändert auch die Verfügbarkeit von Subventionen aus Steuergeldern nichts. Bislang stammen die meisten E-Autofahrer aus Haushalten mit einem Jahreseinkommen von mindestens 150.000 Dollar oder mehr. In Bundesstaaten wie Mississippi, wo das Durchschnittseinkommen bei etwa 50.000 Dollar liegt, sind E-Autos unerschwinglich, und Vorschriften wie die von Biden vorgeschlagenen Standards werden diese Kosten nur noch weiter in die Höhe treiben.

Einer der landesweit führenden Automobilhersteller bezeichnete den Vorschlag als „aggressiv“ und „beispiellos“, selbst für ihn, und deutete damit an, dass die Regierung zu weit und zu schnell geht. Diese Aussagen sollten ernst genommen werden, da die Industrie bereits Milliarden in die Ausweitung der Elektrifizierung von Fahrzeugen investiert hat. Obwohl sich die Industrie das Narrativ des Übergangs zu eigen gemacht hat, ist sie zu Recht besorgt über den überstürzten Zeitplan und die unrealistischen Erwartungen im aktuellen Vorschlag.

Trotz erheblicher technischer Hürden und der überwältigenden Präferenz der Verbraucher für Benzin-betriebene Fahrzeuge scheint das Team Biden mit dem Zuckerbrot fertig zu sein und versucht, den Amerikanern die Zukunft der Elektromobilität mit der Peitsche aufzuzwingen. Die Gerichte könnten wieder einmal die rettende Gnade sein.

Kritiker haben die Möglichkeit, rechtliche Argumente gegen die EPA vorzubringen. Der größte juristische Elefant im Raum ist die Entscheidung West Virginia gegen EPA, die sich auf die Doktrin der „großen Fragen“ beruft. Insbesondere hat der Oberste Gerichtshof klargestellt, dass die Behörden auf eine eindeutige Ermächtigung des Kongresses verweisen müssen, wenn sie Maßnahmen von „großer wirtschaftlicher oder politischer Bedeutung“ ergreifen. In diesem Fall kann man argumentieren, dass die EPA nicht die Möglichkeit hat, die gesamte Transportindustrie umzustrukturieren, so wie die Behörde im Fall West Virginia nicht die Möglichkeit hatte, ganze Energiemärkte neu zu gestalten.

Die derzeit vorgeschlagenen Vorschriften weisen zahlreiche technische und rechtliche Schwachstellen auf. Außerdem werden sie den ökologischen Fortschritt untergraben, da sich die Amerikaner zweifellos damit abfinden werden, ältere Autos länger zu fahren, anstatt sich zu verschulden, um ein neues, weniger zuverlässiges Auto zu kaufen. Infolgedessen werden die Reichweite neuer Technologien und die damit verbundenen Vorteile wie geringere Umweltverschmutzung und sicherere Straßen nicht zum Tragen kommen.

Autorin: Mandy Gunasekara is the director of Independent Women’s Forum’s Center for Energy and Conservation and previously served as Chief-of-Staff at the U.S. EPA.

Originally published by RealClearEnergy. Republished with permission.

Link: https://heartlanddailynews.com/2023/05/bidens-new-emissions-control-standards-prove-evs-are-a-tough-sell

Übersetzt von Christian Freuer für das EIKE

 




Ist AR6 der schlechteste und verzerrteste IPCC-Bericht?

Andy May

Dies ist der Text meines Vortrags im Podcast von Tom Nelson, den Sie sich hier ansehen können. Die Fragen und Antworten beginnen bei etwa 18:15 in dem Interview.

Der erste IPCC-Bericht über die physikalischen Grundlagen der Wissenschaft trägt den Titel „FAR“ und wurde erstmals 1990 veröffentlicht. Eine aktualisierte Version des Berichts aus dem Jahr 1992 enthält diese Aussage:

„Die globale mittlere Temperatur ist in den letzten 100 Jahren um 0,3°C bis 0,6°C gestiegen … Das Ausmaß dieser Erwärmung stimmt weitgehend mit den Vorhersagen der Klimamodelle überein, hat aber auch die gleiche Größenordnung wie die natürliche Klimavariabilität. … Der eindeutige Nachweis des verstärkten Treibhauseffekts anhand von Beobachtungen ist für ein Jahrzehnt oder länger nicht zu erwarten.“ – (IPCC, 1992, S. 6).

Diese Aussage war damals zutreffend, und sie ist auch heute noch weitgehend zutreffend. Im vergangenen Jahrhundert (seit 1920) sind die Temperaturen um etwa ein Grad gestiegen, und ich bin mir nicht sicher, ob wir in der Lage sein werden, einen vom Menschen verstärkten Treibhauseffekt in zehn Jahren oder überhaupt festzustellen, aber ansonsten ist das Zitat immer noch zutreffend. Ein Grad globaler Erwärmung in einem Jahrhundert liegt durchaus im Rahmen der natürlichen Klimavariabilität, wie historische Aufzeichnungen und Aufzeichnungen über Gletschervorstöße und -rückgänge zeigen (Vinós, 2022, S. 89-107).

Heute gibt es Gletscher, wo es während der mittelalterlichen Warmzeit von etwa 800 bis 1200 n. Chr. und während des holozänen Klimaoptimums von etwa 7500 bis 4500 v. Chr. keine Gletscher gab. Darüber hinaus bewirtschafteten die Wikinger Teile Grönlands, in denen heute Permafrost herrscht. Ötzi, der Tiroler Eismann, der vor etwa 5000 Jahren in einem Gletscher eingefroren war und erst kürzlich in seinem Gletschergrab entdeckt wurde, kann bezeugen, dass die modernen Gletscher weiter fortgeschritten sind als vor 3000 v. Chr.

Der zweite Bericht, SAR genannt, wurde in den Jahren 1996 und 1997 veröffentlicht. Kapitel 8 war ein großes Problem, als er herauskam, denn im ursprünglichen Entwurf waren sich die Wissenschaftler, die ihn verfassten, einig, diese Aussage aufzunehmen:

„Bis heute hat keine Studie sowohl eine signifikante Klimaänderung festgestellt als auch diese Änderung ganz oder teilweise eindeutig auf anthropogene Ursachen zurückgeführt.“ – (Endgültiger Entwurf, genehmigt von allen 36 Autoren, SAR, Juli 1995)

In der abschließenden Sitzung des IPCC-Überwachungsausschusses, bestehend aus Regierungspolitikern sowie den Herausgebern und Hauptautoren des IPCC am 29. November 1995, die bis in die frühen Morgenstunden des 30. November andauerte, wurde diese Aussage jedoch geändert und lautete:

„Die Bilanz der Beweise deutet auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin.“ – (IPCC, 1996, S. 4).

Diese Änderung wurde von den Hauptautoren und den politischen Vertretern der teilnehmenden Länder beschlossen, ohne die Wissenschaftler zu konsultieren, die den endgültigen Entwurf Monate zuvor verfasst und genehmigt hatten (May, 2020c, S. 230-235). Frederick Seitz, der 17. Präsident der Nationalen Akademie der Wissenschaften der Vereinigten Staaten, schrieb darüber im Wall Street Journal (1996) unter der Überschrift „A Major Deception On Global Warming“ (Eine große Täuschung über die globale Erwärmung) und löste damit einen Aufschrei in der wissenschaftlichen Gemeinschaft aus.

In dem Artikel schreibt Seitz:

„In meinen mehr als 60 Jahren als Mitglied der amerikanischen wissenschaftlichen Gemeinschaft, einschließlich meiner Tätigkeit als Präsident der National Academy of Sciences und der American Physical Society, habe ich noch nie eine beunruhigendere Korruption des Peer-Review-Prozesses erlebt als die Ereignisse, die zu diesem IPCC-Bericht geführt haben“. – Frederick Seitz, der 17. Präsident der Nationalen Akademie der Wissenschaften der Vereinigten Staaten

Er hat das Wort „Korruption“ nicht leichtfertig gewählt.

Der dritte Bericht „TAR“ wurde im Jahr 2001 veröffentlicht. Er wurde durch die Aufnahme und Förderung des berüchtigten „Hockeyschläger“-Diagramms ernsthaft in Mitleidenschaft gezogen, von dem sich später herausstellte, dass es aufgrund erheblicher statistischer Fehler und der Einbeziehung ernsthaft fehlerhafter Daten stark fehlerhaft war.

Trotzdem hat der IPCC die folgende Aussage aufgenommen, die auf dem fehlerhaften Hockeystick basierte:

„Im Lichte der neuen Erkenntnisse und unter Berücksichtigung der verbleibenden Unsicherheiten ist der größte Teil der beobachteten Erwärmung in den letzten 50 Jahren wahrscheinlich auf den Anstieg der Treibhausgas-Konzentrationen zurückzuführen.“ – (IPCC, 2001, S. 699).

In zahlreichen Berichten und von Experten begutachteten Artikeln, vor allem von Stephen McIntyre und Ross McKitrick, Edward Wegman und dem Nationalen Forschungsrat der USA, wurden die zahlreichen Fehler in der Grafik detailliert beschrieben (May, 2020c, S. 164-198). Die Analyse zeigte, dass in den statistischen Algorithmus, der zur Erstellung des Hockeysticks verwendet wurde, zufälliges rotes Rauschen eingespeist werden konnte und er dennoch Hockeysticks produzierte.

Der vierte Bericht „AR4“ enthielt diese Erklärung:

„Der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich auf den beobachteten Anstieg der anthropogenen Treibhausgas-Konzentrationen zurückzuführen.“ – (IPCC, 2007b, S. 10).

Dies war sehr ähnlich wie im TAR, wo die gleiche Schlussfolgerung auf dem inzwischen diskreditierten Hockeyschläger basierte. AR4 rückte vom Hockeystick ab und räumte ein, dass er fehlerhaft war, behauptete aber auch, dass die Himalaya-Gletscher mit sehr hoher Wahrscheinlichkeit bis 2035 schmelzen würden. Wie sich herausstellte, ist dies ein Ding der Unmöglichkeit, und der Leiter des AR4, Rajendra Pachauri, musste einen Rückzieher machen und sich für den Fehler entschuldigen.

Diese und andere Probleme mit dem Bericht führten zu einer Untersuchung durch den InterAcademy Council der Vereinten Nationen, der feststellte, dass die IPCC-Richtlinien für ihre Berichte nicht befolgt worden waren und dass sich im AR4 ernsthafte Verzerrungen eingeschlichen hatten. Außerdem wurde festgestellt, dass nicht alle von Fachleuten überprüften Ansichten berücksichtigt wurden.

Der AR5, der 2013 veröffentlicht wurde, enthielt die folgende Erklärung:

„Mehr als die Hälfte des beobachteten Anstiegs der globalen mittleren Temperatur (GMST) von 1951 bis 2010 ist höchstwahrscheinlich auf den beobachteten anthropogenen Anstieg der Treibhausgas-Konzentrationen (THG) zurückzuführen.“ – (IPCC, 2013, S. 869)

Dies ist den Schlussfolgerungen von TAR und AR4 sehr ähnlich, aber der Bericht enthält keine neuen Beweise. Wichtig ist, dass John Christy, Ross McKitrick und andere die Autoren des Berichts gewarnt hatten, dass die von ihnen verwendeten Klimamodelle eine viel stärkere Erwärmung in der tropischen Troposphäre vorhersagten als beobachtet wurde (siehe Abbildung 1). Noch später zeigten Ross McKitrick und John Christy, dass fast alle AR5-Modelle eine zu starke Erwärmung auf statistisch signifikantem Niveau vorhersagten (McKitrick & Christy, 2018), und diese übermäßige Erwärmung wurde als „Hot Spot“ bezeichnet.

Abbildung 1. Die Daten stammen aus (McKitrick & Christy, 2018), die Grafik von John Christy.

Der Hot Spot existiert im AR6 immer noch und hat sich sogar noch verstärkt (McKitrick & Christy, 2020). Es ist bemerkenswert, dass, wenn die menschlichen Treibhausgasemissionen aus den Klimamodellen entfernt werden, der fiktive heiße Fleck verschwindet und die Modelle sich viel näher den Beobachtungen annähern.

Im AR6 lesen wir Folgendes:

„Die wahrscheinliche Spanne der vom Menschen verursachten Änderung der globalen Temperatur in den Jahren 2010-2019 im Vergleich zu 1850-1900 beträgt 0,8°C bis 1,3°C, mit einer zentralen Schätzung von 1,07°C, die die beste Schätzung der beobachteten Erwärmung für diesen Zeitraum umfasst, die 1,06°C beträgt, mit einer sehr wahrscheinlichen Spanne von [0,88°C bis 1,21°C], während die wahrscheinliche Spanne der Änderung, die dem natürlichen Antrieb zuzuschreiben ist, nur -0,1°C bis +0,1°C beträgt.“ – (AR6, Seite 59).

Sie behaupten nun also, dass die gesamte Erwärmung seit dem 19. Jahrhundert wahrscheinlich auf den Menschen zurückzuführen ist. Und das, obwohl ihre Klimamodelle in der tropischen Troposphäre statistisch ungültig sind, wenn sie menschliche Treibhausgasemissionen in das Modell einbeziehen.

Sie wurden gewarnt, dass die AR5-Modelle zu heiß liefen und dass Verzerrungen zugunsten der postulierten Werte zu vermeiden sind.

Dennoch ließen sie die Modelle im AR6 noch heißer laufen als im AR5 und ignorierten die abweichenden Meinungen von Richard Lindzen, Roger Pielke Jr., John Christy, Ross McKitrick und vielen anderen prominenten Klimaforschern. Dies ist in Abbildung 2 dargestellt:

Abbildung 2. Das AR6-Diagramm stammt aus AR6, Seite 444. Das AR5-Diagramm stammt aus AR5, Seite 892. Weitere Informationen zu diesem Vergleich finden Sie hier [in deutscher Übersetzung hier].

Beachten Sie, dass der Bereich der AR5-Modellergebnisse nicht 0,6 erreicht, im AR6 jedoch schon.

Im AR6 zeigen die gekoppelten Ozean-/Atmosphärenmodelle (rote Kästen) höhere Meerestemperaturen als die beobachteten Meerestemperaturen (blaue Kästen). Die Diskrepanz zwischen Modell und Beobachtung bei den Meerestemperaturen im Pazifischen Ozean ist ein sehr ernstes Problem.

Neben den Meerestemperaturen haben die IPCC/CMIP-Klimamodelle auch ein ernstes Problem mit den Wolken. Sie können Wolken nicht modellieren. Es ist allgemein bekannt und akzeptiert, dass Wolken eine Netto-Abkühlung [in deutscher Übersetzung hier] bewirken, aber wie reagieren sie bei steigender Temperatur? Was ist die Netto-Rückkopplung [in deutscher Übersetzung hier] der Wolken, wenn sich die Welt erwärmt? Man weiß es nicht, und die Unsicherheit bei der Reaktion der Wolken auf die Erwärmung ist fast so groß wie die Gesamtunsicherheit bei allen modellierten Rückkopplungen der Erwärmung.

Wir finden das hier im AR6 zu diesem Thema:

„… CMIP6-Modelle haben höhere mittlere ECS- und TCR-Werte [Klimaempfindlichkeit gegenüber Treibhausgasen] als die CMIP5-Generation von 50 Modellen. Sie haben auch höhere Mittelwerte und größere Streuungen als die bewerteten besten Schätzungen und sehr wahrscheinlichen Bereiche in diesem [AR6] Bericht. Diese höheren ECS- und TCR-Werte können in einigen Modellen auf Veränderungen bei den Rückkopplungen der außertropischen Wolken zurückgeführt werden, die sich aus den Bemühungen ergeben haben, die Verzerrungen bei diesen Wolken im Vergleich zu den Satellitenbeobachtungen zu verringern (mittleres Vertrauen). Die breiteren ECS- und TCR-Bereiche von CMIP6 führen auch dazu, dass die Modelle einen Bereich der zukünftigen Erwärmung projizieren, der größer ist als der bewertete Erwärmungsbereich“ . (AR6, S. 927).

Klartext: Wir haben die Parameter unserer Wolkenrückkopplung angepasst, um die Diskrepanz zur realen Welt zu beheben, und als wir das taten, wurden die ohnehin schon zu warmen Modelle noch schlechter. Sie befinden sich eindeutig in einem Stadium ihrer Modellierungsbemühungen, in dem sie jedes Mal, wenn sie versuchen, eine Unstimmigkeit zu beheben, etwas anderes falsch machen. Das ist ein Zeichen dafür, dass ihren Modellen eine wichtige Komponente des Klimas fehlt.

Abbildung 3 ist eine Darstellung der Modell-Klima-Rückkopplung im Vergleich zur modellberechneten ECS oder Gleichgewichts-Klimaempfindlichkeit bei einer CO₂-Verdoppelung (Ceppi, Brient, Zelinka, & Hartmann, 2017). Denken Sie daran, dass die Wolkenrückkopplung nicht modelliert werden kann, sie muss über vom Benutzer einstellbare Parameter in das Modell eingegeben werden. Die Grafik zeigt uns, dass 71 % des vom Modell berechneten ECS durch diese vom Benutzer eingegebenen Parameter bestimmt werden. Die Modelle können buchstäblich fast jedes ECS erzeugen, das der Modellierer wünscht.

Abbildung 3. Modellierte Wolkenrückkopplung auf die Temperatur im Vergleich zum modellberechneten ECS (Klimasensitivität gegenüber einer CO₂-Verdoppelung oder 2xCO₂). Daten aus (Ceppi, Brient, Zelinka, & Hartmann, 2017).

Wie bereits erwähnt, tun sich die IPCC-Klimamodelle schwer mit den Meerestemperaturen. Sie sagen nicht nur höhere Meerestemperaturen als die beobachteten voraus, sondern stimmen auch nicht mit dem Muster der Erwärmung und Abkühlung der Ozeane überein. Es scheint, dass sie beschlossen haben, dass ihre Modelle korrekt sein müssen, also haben sie angenommen, dass sich die Rückkopplungen ändern müssen, und das hat sie durcheinander gebracht.

Sie ändern ihre Modelle so grundlegend, dass sie nicht durch Beobachtungen widerlegt werden können. Indem sie von einem sich ständig ändernden Klimazustand ausgehen, machen sie ihre ohnehin schon unbeweisbaren Ideen noch unbeweisbarer. Wie Karl Marx und seine Anhänger herausfanden, kann man, wenn die eigene Hypothese flüssig genug ist, daraus schließen, was man will, und niemand kann einem widersprechen. Aus Karl Popper, 1962, Seite 37:

„Die marxistische Geschichtstheorie hat trotz der ernsthaften Bemühungen einiger ihrer Begründer und Anhänger letztlich eine Praxis der Wahrsagerei angenommen. In einigen ihrer früheren Formulierungen (z. B. in Marx‘ Analyse des Charakters der ‚kommenden sozialen Revolution‘) waren ihre Vorhersagen überprüfbar und wurden sogar falsifiziert. Doch anstatt die Widerlegungen zu akzeptieren, interpretierten die Anhänger von Marx sowohl die Theorie als auch die Beweise neu, um sie zur Übereinstimmung zu bringen. Auf diese Weise retteten sie die Theorie vor der Widerlegung; aber sie taten dies um den Preis, dass sie ein Mittel anwandten, das sie unwiderlegbar machte. Sie … zerstörten ihren vielgepriesenen Anspruch auf wissenschaftlichen Status.“ – (Popper, 1962, S. 37).

Der AR6 behauptet nun, dass sich mit dem Anstieg der Oberflächentemperaturen auch die Rückkopplungen auf diese Erwärmung ändern. Auf einen Schlag erklären sie sowohl, warum ihre Modelle nicht mit den Beobachtungen übereinstimmen, als auch, dass sie diese lästigen, auf Beobachtungen basierenden Berechnungen der Klimasensitivität, die so viel geringer sind als ihre auf Modellen basierenden Schätzungen, für ungültig erklären.

Wie Sie in den AR6-Karten in Abbildung 4 sehen können, sind die modellierten Ozeantemperaturen viel einfacher als das beobachtete Muster. Außerdem nimmt die Wolkenbedeckung über Südamerika zu und nicht ab, wie vorhergesagt. Die Modelle erwarten, dass sich der östliche Pazifik viel stärker erwärmt als beobachtet, und der westliche Pazifik erwärmt sich viel stärker als vorhergesagt. Das ganze Muster ist falsch.

Abbildung 4. Ein Vergleich der beobachteten Änderungen der Meeresoberflächentemperatur von 1870 bis 2019 mit den modellierten Änderungen. Die Skalen sind unterschiedlich, da die tatsächliche CO₂-Veränderung in der oberen Karte kleiner ist als das verwendete Modellszenario. Aber die Farben in den Karten sind kompatibel.

Sie behaupten, dass die Modelle in Ordnung sind, sie müssen nur ihre Rückkopplungen anpassen. Richard Seager und seine Kollegen schreiben:

„Die Reaktion des tropischen Pazifiks auf den Anstieg der Treibhausgase hat Auswirkungen auf die gesamte Weltbevölkerung. Modernste Klimamodelle sagen voraus, dass steigende Treibhausgase das West-Ost-Gefälle zwischen höherer und niedrigerer Meerestemperatur im äquatorialen Pazifik verringern.
In der Natur hat sich dieses Gefälle jedoch in den letzten Jahrzehnten verstärkt, da die Treibhausgas-Konzentrationen stark gestiegen sind. Diese krasse Diskrepanz zwischen Modellen und Beobachtungen beunruhigt die Klimaforschungsgemeinschaft seit zwei Jahrzehnten. … Das Versagen der modernsten Modelle, die korrekte Reaktion zu erfassen, führt zu kritischen Fehlern in ihren Projektionen des Klimawandels in den vielen Regionen, die empfindlich auf die Meerestemperaturen im tropischen Pazifik reagieren.“ – (Seager, Cane, & Henderson, 2019)

AR6 hat seine eigene Version des TAR-Hockeyschlägers, und sie ist genauso fehlerhaft wie die erste. Sie haben auch eine Widerlegung ihrer eigenen Version auf Seite 316 ihres Berichts veröffentlicht, wie in Abbildung 5 dargestellt. Sie wollen uns glauben machen, dass das letzte Jahrzehnt wärmer war als jedes andere Jahrzehnt in den letzten 125.000 Jahren. Die Daten, auf die sie sich von vor 10.000 Jahren bis vor 2.000 Jahren stützen, haben nach ihren eigenen Angaben nur eine Auflösung von einem Jahrhundert (10 Jahrzehnte!). Ich habe den roten Kreis, die Pfeile und die Klammern zu ihrer Abbildung 2.11 hinzugefügt:

Abbildung 5. Geändert nach AR6, Abbildung 2.11, Seite 316.

Beachten Sie insbesondere die Klammer. Die Unsicherheitsbalken in ihrer Darstellung der Temperaturen von vor 10.000 Jahren bis vor 2000 Jahren sind größer als die gesamte jüngste Erwärmung. Mit anderen Worten: Ihre eigenen Daten stützen ihre Aussage nicht. Sie können uns unmöglich etwas darüber sagen, wie das jüngste Jahrzehnt im Vergleich zu einem Jahrzehnt vor 1850, dem Ende der Kleinen Eiszeit, abschneidet.

Abschließend könnte ich immer weiter fortfahren, aber unterm Strich ist AR6 der schlechteste und voreingenommenste IPCC-Bericht über die physikalischen Grundlagen aller Zeiten. SAR bis AR5 waren schlecht, aber AR6 ist nicht mehr zu retten.

Das sagt einer der wenigen, die alle Berichte gelesen haben.

Umfragen zeigen immer wieder, dass die Weltbevölkerung nicht glaubt, dass die globale Erwärmung eine Priorität ist. Jüngste Umfragen zeigen, dass die Skepsis gegenüber dem vom Menschen verursachten Klimawandel in der ganzen Welt zunimmt. Eine kürzlich durchgeführte Umfrage der University of Chicago ergab, dass die Überzeugung, dass der Mensch den gesamten oder den größten Teil des Klimawandels verursacht hat, von 60 % vor nur fünf Jahren auf 49 % gesunken ist. Siebzig Prozent der US-Bürger sind nicht bereit, mehr als 2,50 Dollar pro Woche für die Bekämpfung des Klimawandels auszugeben.

Abbildung 6. Die Anzahl der Seiten in jedem größeren IPCC-Bericht über die physikalischen Grundlagen. – Inschrift: Wenn du sie nicht mit Brillanz blenden kannst, begrabe sie in Mist.

60 % der Wähler in den USA glauben, dass der Klimawandel zu einer Religion geworden ist, die nichts mit dem Klima zu tun hat. Nach der Verschwendung von Milliarden Dollar, sechs großen Berichten mit insgesamt 6.543 Seiten (2.391, d. h. fast die Hälfte davon im AR6, wie in Abbildung 6 dargestellt) und insgesamt 47 Berichten aller Art wurde die Öffentlichkeit nicht davon überzeugt, dass der Klimawandel wichtig ist. Meiner Meinung nach ist es für den IPCC an der Zeit, sich zu reformieren oder sich aufzulösen.

Weitere Einzelheiten zu den Mängeln des AR6 finden Sie im Clintel-Bericht [in deutscher Übersetzung hier]. Er wurde von einem internationalen Team von Wissenschaftlern aus sieben Ländern der Welt erstellt und von einigen der besten Klimawissenschaftler der Welt umfassend begutachtet. Das Titelbild ist unten in Abbildung 7 dargestellt. Der Bericht ist als niedrig aufgelöste PDF-Datei zum Herunterladen auf clintel.org verfügbar und wird am 29. Mai bei Amazon, Kobo und Barnes and Noble als ebook oder Taschenbuch erhältlich sein.

Link: https://andymaypetrophysicist.com/2023/05/16/is-ar6-the-worst-and-most-biased-ipcc-report/

Übersetzt von Christian Freuer für das EIKE

 




Katastrophale Folgen der so genannten „Stickstoffkrise“ gefährden die gesamte weltweite Nahrungsmittelversorgung

Chris Morrison, THE DAILY SCEPTIC

Das ganze Ausmaß des „Stickstoff“-Krieges gegen die Landwirtschaft wird täglich deutlicher. Die Lebensmittelversorgung auf der ganzen Welt droht zusammenzubrechen, wenn der Einsatz von Stickstoffdünger im Rahmen der Netto-Null-Anforderungen stark eingeschränkt wird. Es wird behauptet, dass der Dünger die Erde erwärmt und das Klima zusammenbrechen lässt, da das Nebenprodukt Lachgas in die Atmosphäre gelangt. Tatsächlich besteht die Gefahr, dass die gesamte weltweite Nahrungsmittelversorgung zerstört wird, nur weil die jüngsten wissenschaftlichen Arbeiten eine kaum messbare Erwärmung von 0,064 °C pro Jahrhundert feststellen.

Maßnahmen zur Bewältigung dieser nicht existierenden Krise haben in Sri Lanka bereits enormen Schaden angerichtet, wo ein Verbot von Stickstoffdünger zu einem raschen Einbruch der Nahrungsmittelerträge führte und den Präsidenten zur überstürzten Flucht aus dem Land veranlasste. Die kanadische Regierung hat sich verpflichtet, die N₂O-Werte bis 2030 um 30 % zu senken. In den Niederlanden folgt die Regierung den Anweisungen der Europäischen Union und versucht, die Landwirte von ihrem Land zu vertreiben. Jegliche Entschädigungszahlungen sind an die Auflage geknüpft, nirgendwo in der EU wieder Landwirtschaft zu betreiben. Die politische Unzufriedenheit wächst, und es gibt bereits Befürchtungen hinsichtlich der Versorgung mit landwirtschaftlichen Erzeugnissen, da die Niederlande der zweitgrößte Lebensmittelexporteur der Welt sind.

Stickstoff ist ein lebenswichtiger Bestandteil des pflanzlichen Stoffwechsels und wird aus dem Boden gewonnen. Leider ist nicht genug Stickstoff im Boden vorhanden, um Pflanzen in dem Umfang anzubauen, wie es für die Ernährung der Weltbevölkerung erforderlich ist. Bevor es kommerzielle Stickstoffdünger gab, waren Hungersnöte ein häufiges Merkmal der unzuverlässigen Nahrungsmittelversorgung in Teilen der Welt. Ohne Stickstoffdünger werden Hungersnöte ihre grausame Rolle wieder einnehmen, etwas, mit dem sich die Mainstream-Net-Zero-Politiker in naher Zukunft befassen müssen. Tugendhafte grüne Wahnvorstellungen über „Renaturierung“, Käferdiäten und ökologische Landwirtschaft werden die Welt nicht ernähren, wahrscheinlich nicht einmal ein Viertel davon.

In einer kürzlich erschienenen Studie zur theoretischen Physik, verfasst von vier angesehenen Wissenschaftlern heißt es, es gebe Beweise dafür, dass die Menge an N₂O in der Atmosphäre, einem Gas mit wärmenden Eigenschaften, im Laufe der Zeit nie konstant gewesen sei. Die Konzentrationen in der Atmosphäre haben sich in Zwischeneiszeiten wie der jetzigen stark verändert. Distickstoffoxid ist ein stärkeres Treibhausgas als Kohlendioxid, aber es macht nur 0,34 ppm aus und nimmt nur um 0,00085 ppm pro Jahr zu. Derzeit liegt der CO₂-Gehalt bei 420 ppm, und die Moleküle nehmen in der Atmosphäre 3.000 Mal schneller zu als N₂O.

Wie bei allen Treibhausgasen nimmt die Fähigkeit des Gases, Wärme in engen Bereichen des Infrarotspektrums zu speichern, ab einem bestimmten Wert ab, da das Gas dann „gesättigt“ ist. Dies erklärt, warum die Treibhausgas-Konzentration in der Vergangenheit viel höher war, ohne dass sich die Erde in einen Armageddon-Feuerball verwandelte. Ab einem bestimmten Punkt wird die Erwärmung den Physikern zufolge logarithmisch, d. h. sie steigt als Reaktion auf zusätzliche Treibhausgase immer langsamer an, was wiederum eine plausible Erklärung dafür liefert, warum die Temperaturen in den Paläoaufzeichnungen innerhalb einer relativ schmalen Bandbreite geblieben sind.

Jeden Tag scheint es neue Sorgen über die Zerstörung zu geben, die das kollektivistische Net Zero-Projekt anrichten wird. Wie wir in den letzten Artikeln gesehen haben, blicken die absolutistischen Net-Zero-Fanatiker des von der Regierung finanzierten britischen FIRES-Projekts auf eine Welt im Jahr 2050, in der Großbritannien 75 % seiner Energie verlieren wird. Fliegen, Schifffahrt und der Verzehr von Rind- und Lammfleisch werden verboten sein, während Ziegel, Beton und Glas fast nicht mehr existieren werden. Alle großen politischen Parteien, die die derzeitige Strategie unterstützen, laufen vor der wahren Net Zero-Realität davon. Nach Ansicht des britischen FIRES-Vorsitzenden Professor Julian Allwood ist die derzeitige Strategie so unrealistisch wie „magische Bohnen, die mit dem Blut eines Einhorns gedüngt wurden“.

Die vier Physiker stellen fest, dass nur wenige Bürger wissen, dass die Auswirkungen von N₂O auf die Atmosphäre „vernachlässigbar“ sind. Die vorgeschlagenen belastenden Vorschriften für Landwirtschaft, Viehzucht und Milchwirtschaft „werden keine spürbaren Auswirkungen auf das Klima haben, aber einige von ihnen werden der landwirtschaftlichen Produktivität und der Lebensmittelversorgung großen Schaden zufügen“. Es wird darauf hingewiesen, dass einer der Hauptfaktoren für den „beispiellosen“ Überfluss an Nahrungsmitteln in der Welt in den letzten Jahren der Einsatz von mineralischem Stickstoffdünger war. „Es ist nicht möglich, eine hochproduktive Landwirtschaft ohne Stickstoffdünger zu betreiben“, heißt es weiter.

Einer der Autoren des jüngsten Berichts, Professor William Happer aus Princeton, hat sich kürzlich mit Professor Richard Lindzen vom MIT zusammengetan, um deutlich zu machen, vor welcher Katastrophe die Welt steht. Milliarden von Menschen auf der ganzen Welt drohten zu verhungern, wenn die Produktion von Stickstoffdünger verboten würde. Es würde zu einer „weltweiten Hungersnot“ führen, wenn die Hälfte der Welt nicht mehr genug zu essen hat.

Um ihre Behauptungen zu untermauern, veröffentlichten die Autoren die obige Grafik. Sie zeigt deutlich den „bemerkenswerten“ Anstieg der Ernteerträge, nachdem der weit verbreitete Einsatz von Stickstoffdünger um 1950 begann.

In seiner theoretischen Abhandlung verweist Happer auch auf einige der Katastrophen, die sich in der Vergangenheit ereignet haben, als „ideologisch motivierte“ staatliche Agrarmandate „in der Regel zu einer Katastrophe führten“. In der Sowjetunion führte ein Krieg gegen die Bauern in den 1930er Jahren dazu, dass Millionen Menschen verhungerten. Die Erinnerung an den Golodomor (Hungermord), bei dem Millionen von Ukrainern zur gleichen Zeit starben, spielte beim gegenwärtigen Krieg in der Ukraine „keine geringe Rolle“.

Die Auflagen zur Beschränkung des Tierbestands und des Düngemitteleinsatzes werden die landwirtschaftlichen Erträge drastisch verringern. Um die Welt weiterhin ernähren zu können, müssen die landwirtschaftlichen Flächen ausgeweitet werden, was zu einer Beeinträchtigung einheimischer Lebensräume führt, die bei vernünftigem Düngemitteleinsatz unberührt bleiben könnten. „Das Ergebnis wird nicht weniger, sondern mehr Umweltbelastung sein“, schreiben die Physiker. Wenn selbst der prognostizierte Nutzen so verschwindend gering ist, ist dies eine Politik, für die es nichts Gutes zu sagen gibt.

Chris Morrison is the Daily Sceptic’s Environment Editor.

Link: https://wattsupwiththat.com/2023/05/11/entire-global-food-supply-at-risk-from-disastrous-response-to-so-called-nitrogen-crisis/

Übersetzt von Christian Freuer für das EIKE