In Deutschland mit langer Tradition – Teil 1: Die Behauptung einer auf Treibhausgasen basierten Erderwärmung

Über die obige Cabaret-Einlage des „Clima-Clowns“ Latif – er selbst wird sich wohl Klimaforscher nennen, obwohl es diesen Lehrzweig in der Wissenschaft gar nicht gibt, was nur logisch ist, denn Klima ist nichts anderes als der statistische Mittelwert des Wetters und was soll dass sein, Mittelwertforscher oder gar Mittelwertschutz – können die Spanier oder die Süddeutschen, Österreicher, etc. ganz sicher nicht lachen. Sind sie doch in den letzten Tagen und Wochen förmlich im Schnee(Chaos) versunken. Allerdings erschien der Artikel mit obigem Zitat am 1. April (!) 2000. Er wurde allerdings nicht als Aprilscherz ausgewiesen, weder vom Spiegel noch von den Staatssendern von ARD und ZDF, die dies natürlich ebenfalls meldeten.

Wie der Autor unter anderem in seinem jüngsten Bericht auf EIKE zeigte, bestimmt die Sonne und nur diese unser Wetter und damit dessen Mittelwert, das Klima. Die ausgewiesenen, vermeintlich immer weiter steigenden Temperaturen bis in die heutige Zeit sind auf Messwerttricksereien, wie der Autor es nennt, bei der Erfassung zurückzuführen, bitte nicht mit Messwertfälschungen gleichsetzen, die entstehen durch sich ändernde

  • Messwertzeiten,
  • Messorte (Wärmeinseleffekt = WI, jeder von uns weiß, dass die Temperaturen in Städten, besonders im Sommer, z.T. deutlich höher als auf dem Land liegen, dazu braucht man nur auf die Außentemperaturanzeige seines Fahrzeugs zu achten),
  • Auswahl/Gewichtung der Messorte,
  • sowie dem zu früher unterschiedlichem Messequipment

um nur die wichtigsten zu nennen. Schlicht und ergreifend, werden bei Temperaturvergleichen zu früher „Äpfel mit Birnen“ verglichen und somit jeder Temperaturvergleich der Wertlosigkeit übergeben. Von Herrn Josef Kowatsch stammt die folgende Untersuchung, die sich in Abb.1 spiegelt:

 

Abb.1, Quelle: Josef Kowatsch, nach Daten des Deutschen Wetterdienstes, zeigt am Beispiel der Temperaturmessstation von Freiburg, wie allein dadurch die Temperaturen durch den WI steigen, wird die Lage der Station verändert. Herr Kowatsch schreibt dazu „Bei Freiburg – blauer Graph in der Grafik – sieht man den WI-Effekt sehr deutlich. Im Jahre 2007 hat der DWD seine Innenstadtwetterstation in einen Außenbezirk versetzt. Nun hat der DWD die Station wieder zurückgesetzt in die Innenstadt. Und schon ist das Jahr 2020 das wärmste, jedenfalls wieder so warm wie 2000 und deutlich wärmer als 2018.

Bereits vor 10 Jahren hat der Autor anhand von Vergleichen der DWD-Referenzstation Hohenpeißenberg mit den DWD-Deutschlandtemperaturen errechnet (auf Basis der Strahlungsgesetze nach Planck und dem Abkühlungsgesetz nach Newton), dass der WI in den ausgewiesenen Deutschlandtemperaturen des DWD bis zu +1,1°C beträgt. Anhand der mathematischen Ermittlung hat Herr Kowatsch die Berechnungen des Autors auf Heute aktualisiert, Abb.2:

Abb.2., Quelle: Josef Kowatsch, zeigt die nach der Berechnungsmethode des Autors um den Wärmeinseleffekt bereinigte Temperaturkurve von Deutschland. Streng genommen gelten die Daten nur bis 2010, denn solche „Tricksereien“, wie in Abb.1 vorgenommen von der Behörde DWD* in 2019, sind in der Berechnungsmethode noch gar nicht enthalten, so dass im Jahre 2020 gegenüber dem Jahre 2010 der WI wohl höher als die genannten 1,1°C ist und der Temperaturanstieg ab 2010 flacher verläuft.

* Der Deutsche Wetterdienst ist nicht etwa unabhängig, sondern eine Anstalt des öffentlichen Rechts im Geschäftsbereich des Bundesministeriums für Verkehr und digitale Infrastruktur und ist diesem unterstellt. Die Politik ist also weisungsbefugt gegenüber dem DWD. Mit anderen Worten, der DWD muss das tun, was die Politik ihm vorgibt.

Auf der Internetplattform seines befreundeten Autors Chris Frey hat der Autor seine Überlegungen dargelegt, die versuchen, die Frage zu beantworten, warum gerade die (ehemalige) Wirtschaftspartei CDU/CSU die deutsche Wirtschaft mit immer schärferen „Klimaauflagen“ in den Ruin treibt. Der Autor möchte darauf hinweisen, dass es sich dabei nur um seine Überlegungen handelt, die den Kern innehaben, dass bei den 2+4-Verhandlungen eine neue „Nachkriegsordnung“, basierend auf der CO2-Lüge (Anmerkung: Angst), beschlossen wurde, die über die Institutionen wie z.B. die UN weltweit durchgesetzt werden soll.

Zu Beginn hatten wir einen kleinen Exkurs in die Märchenstunde der deutschen Qualitätsmedien. Die Staatssender von ZDF und ARD haben in den letzten Wochen eine große Vielzahl von Märchen gesendet, die als Märchen deklariert waren, wie „Hans im Glück“ (RBB), „Vom Fischer und seiner Frau“ (NDR), „Hans Röckle und der Teufel“ (MDR), „Schneewitschen und der Zauber der Zwerge“ (ZDF), „Rumpelstilzchen“ (WDR), „Baron Münchhausen“ (SWR), um nur eine kleine Auswahl zu nennen.

Wie wir gesehen haben, hat die Märchenstunde bei den Staatssendern eine lange Tradition, deshalb schlägt der Autor den dortigen Programmmachern vor, auch die anderen Ausstrahlungen der Staatssender, wie die um Klima, Energie und Corona, als Märchenstunde auszuweisen. Der Zuschauer weiß dann sofort, woran er ist, ohne sich aufwendig in unabhängigen Instituten zu informieren, dass er mal wieder von den Staatssendern eine Märchenstunde präsentiert bekam.

 




Verursachung des Klimawandels und das wissenschaftliche Verfahren

Die These, die wir ansprechen, ist diejenige, die uns ständig eingehämmert wird. Sie lautet in etwa: „Das Klima verändert sich, und wir sind die Ursache“. OK, niemand bestreitet, dass sich das Klima ändert; aber was ist mit dem Teil „wir sind die Ursache“? Welche Beweise gibt es dafür?

Lassen Sie uns die wissenschaftliche Methodik anwenden. Wir beginnen mit der grundlegenden Maxime, dass „Korrelation keine Kausalität beweist“. Stattdessen wird die Kausalität durch Widerlegung aller relevanten alternativen („Null“-) Hypothesen nachgewiesen.

Wie das funktioniert, weiß jeder von Medikamententests. Wir können nicht beweisen, dass Medikament A Krankheit X heilt, indem wir Medikament A tausendmal verabreichen und beobachten, dass Krankheit X fast immer verschwindet. Die Krankheit X könnte aus anderen Gründen oder von selbst verschwunden sein. Selbst falls wir das Medikament A eine Million Mal verabreichen und Krankheit X fast immer verschwindet, haben wir nur die Korrelation bewiesen, nicht die Kausalität. Um die Kausalität zu beweisen, müssen wir die Nullhypothese widerlegen, indem wir das Medikament A gegen ein Placebo testen. Das Placebo repräsentiert die Nullhypothese, dass etwas anderes (nennen wir es „natürliche Faktoren“) die Krankheit X heilt. Wenn Medikament A bei der Heilung von Krankheit X signifikant wirksamer ist als das Placebo, dann haben wir die Nullhypothese widerlegt und die Wirksamkeit von Medikament A zumindest vorläufig nachgewiesen.

Zurück zum Klimawandel. Die Hypothese lautet: „Der Mensch verursacht einen signifikanten Klimawandel.“ Eine geeignete Nullhypothese wäre „Der beobachtete Klimawandel kann vollständig durch eine Kombination natürlicher Faktoren erklärt werden.“ Wie könnte man dies testen?

Der naheliegendste Test wäre, zu fragen, ob es in der jüngeren Erdgeschichte wärmer war als heute – wobei die Gegenwart Gegenstand signifikanter menschlicher Treibhausgasemissionen ist. Falls Perioden in der jüngeren Vergangenheit vor den menschlichen Emissionen wärmer waren als die Gegenwart, dann ist ganz offensichtlich eine Kombination von „natürlichen Faktoren“ ausreichend, um Temperaturen zu erzeugen, die so hoch oder höher liegen als wir es heute erleben.

[Hervorhebung vom Übersetzer]

Und es spielt keine Rolle, ob wir wissen, was die alternativen „natürlichen Faktoren“ sein könnten, genauso wenig wie es bei der fehlgeschlagenen Medikamentenstudie eine Rolle spielt, ob wir wissen, warum das Placebo das experimentelle Medikament geschlagen hat oder nicht. In der fehlgeschlagenen Medikamentenstudie könnte es das menschliche Immunsystem gewesen sein, oder es könnten Darmbakterien gewesen sein, oder es könnte das Wetter gewesen sein, oder irgendetwas anderes. Tatsache ist, dass die „natürlichen Faktoren“, welche auch immer das sein mögen, das experimentelle Medikament übertrafen.

Als Test für die Klimahypothese dient ein Blogbeitrag des pensionierten Physikers Ralph Alexander vom 28. Dezember mit dem Titel [übersetzt] „Neue Beweise, dass das antike Klima wärmer war als das heutige“. Alexander fasst die Ergebnisse von zwei aktuellen Studien zusammen:

● Eine Arbeit vom Juni 2020 aus Nature mit dem Titel [übersetzt] „Anhaltend warmes Meerwasser im Mittelmeer während der Römerzeit“ von einer Gruppe italienischer und spanischer Autoren unter der Leitung von G. Margaritelli.

● Ein Artikel aus dem New Scientist vom November 2020 mit dem Titel [übersetzt] „Der Klimawandel hat in Norwegen eine große Menge alter Pfeile freigelegt“ von C. Baraniuk.

Die Arbeit von Margaritelli et al. analysiert Proxy-Daten von „versteinerten Amöben-Skeletten, die in Sedimenten des Meeresbodens gefunden wurden“, um die Temperaturen des Mittelmeers in den letzten 2000 Jahren zu rekonstruieren. „Das Verhältnis von Magnesium zu Kalzium in den Skeletten ist ein Maß für die Temperatur des Meerwassers zu der Zeit, als das Sediment abgelagert wurde; eine Zeitlinie kann durch Radiokarbondatierung erstellt werden.“

Fazit: Mit Ausnahme der Daten aus der Ägäis zeigen alle Ergebnisse eine deutliche Erwärmung während der römischen Periode von 0 bis 500 n. Chr., als die Temperaturen etwa 2 Grad Celsius höher lagen als der Durchschnitt für Sizilien sowie der westlichen Mittelmeerregionen in späteren Jahrhunderten, und sie lag viel höher als die heutigen Temperaturen in Sizilien.

Die Baraniuk-Studie aus Norwegen analysiert große neue Funde von antiken Artefakten, darunter Pfeile, Pfeilspitzen und Kleidung, die durch den jüngsten Rückzug der Gletscher in diesem Land freigelegt wurden. Das Vorhandensein der Artefakte in diesen Gebieten impliziert natürlich, dass die Gebiete zu der Zeit, als die Artefakte abgelagert wurden, nicht mit Eis bedeckt waren:

Die Tatsache, dass die Artefakte aus mehreren verschiedenen Perioden stammen, die durch Hunderte oder Tausende von Jahren voneinander getrennt sind, impliziert, dass sich das Eis und der Schnee in der Region in den letzten 6.000 Jahren mehrmals ausgedehnt und zurückgezogen haben muss. Während des holozänen Thermischen Maximums, das vor etwa 10.000 bis 6.000 Jahren stattfand und dem Zeitraum der erstaunlichen norwegischen Funde vorausging, waren die globalen Temperaturen noch höher. In den höheren Breiten, wo die zuverlässigsten Proxies zu finden sind, war es schätzungsweise 2-3 Grad Celsius wärmer als heute.

Ob vor 2000 Jahren (Römische Warmzeit) oder vor 6000 Jahren (Holozänes Thermisches Maximum) – diese Perioden lagen eindeutig lange vor jeglichen signifikanten menschlichen Treibhausgas-Emissionen aus der Verbrennung fossiler Brennstoffe. Offensichtlich reicht also eine Kombination von „natürlichen Faktoren“, was immer sie auch sein mögen, aus, um die Erdtemperaturen auf ein Niveau steigen zu lassen, das so hoch oder höher ist als das, was wir heute, in der Ära der menschlichen Nutzung fossiler Brennstoffe, erleben.

Ich sollte erwähnen, dass die beiden von Alexander besprochenen Arbeiten nur die jüngsten von vielen Dutzenden von Studien sind, die Beweise für die Behauptung liefern, dass Zeiten in der jüngeren geologischen Vergangenheit – entweder die mittelalterliche Warmzeit oder die römische Warmzeit oder das holozäne thermische Maximum – wärmer waren als heute. Eine Sammlung vieler Arbeiten, die sich hauptsächlich auf die mittelalterliche Warmzeit konzentrieren, finden Sie auf Craig Idsos CO2 Science Website.

Man sollte meinen, dass die Mainstream-Klima-„Wissenschaft“ sich wie ein Laserstrahl auf den Versuch konzentrieren würde, diesen frühen Perioden zu untersuchen, die wärmer waren als heute. Aber stattdessen haben diese Leute fast vollständig einen anderen Ansatz gewählt. Sie nennen ihren Ansatz „detection and attribution“ [etwa: Edrkennen und zuordnen]. Von den vielen Beispielen ist hier eine wichtige Studie aus dem Jahr 2018, das vom Weltklimarat der Vereinten Nationen gefördert wurde, mit dem Titel [übersetzt] „Erkennen des Klimawandels und Zuordung der Ursachen desselben“ Die Autoren sind ein „Who is Who“ des offiziellen Klima-Establishments, darunter solche wie Phil Jones, Michael Mann, Gerald North, Gabriele Hegerl und Ben Santer.

Anstatt zu prüfen, ob die verfügbaren Daten entweder ihre Haupthypothese (menschliche Ursachen) oder die Nullhypothese (natürliche Faktoren) widerlegen, verfolgen diese Leute einen anderen Ansatz, den ich als „wir können uns nichts anderes als menschliche Treibhausgasemissionen vorstellen, die dies verursachen könnten, also sind es menschliche Emissionen“ beschreiben würde. Sie erstellen sogenannte Modelle darüber, was ihrer Meinung nach natürliche Faktoren für die Erwärmung verursachen könnten, und testen diese dann anhand der Daten. Seit wann beweist das irgendetwas? Der Artikel ist sehr lang und gespickt mit fast undurchdringlichem Jargon, der es fast unmöglich macht, ein gutes Zitat zu bekommen, aber hier sind ein paar der besten:

In Zuordnungs-Studien wurden Multi-Signal-Techniken angewandt, um festzustellen, ob die Größe der beobachteten Reaktion auf einen bestimmten Einflussfaktor mit der modellierten Reaktion übereinstimmt und vom Einfluss anderer Einflussfaktoren getrennt werden kann. Die Einbeziehung von zeitabhängigen Signalen hat geholfen, zwischen natürlichen und anthropogenen Einflussfaktoren zu unterscheiden. Je mehr Antwortmuster einbezogen werden, desto mehr stellt sich zwangsläufig das Problem der Entartung (verschiedene Kombinationen von Mustern, die nahezu identische Anpassungen an die Beobachtungen ergeben). Nichtsdestotrotz bleibt auch bei Einbeziehung der Antworten auf alle wichtigen Antriebsfaktoren in die Analyse ein deutliches Treibhausgassignal nachweisbar. Insgesamt zeigt sich, dass die Größe der modellsimulierten Temperaturreaktion auf Treibhausgase mit der beobachteten Treibhausgasreaktion auf den betrachteten Skalen konsistent ist.

Und noch einer:

Um die Reaktion auf anthropogene oder natürliche Klimaantriebe in Beobachtungen zu erkennen, benötigen wir Schätzungen des erwarteten Raum-Zeit-Musters der Reaktion. Die Einflüsse des natürlichen und des anthropogenen Antriebs auf das beobachtete Klima können nur getrennt werden, falls die räumliche und zeitliche Variation jeder Komponente bekannt ist. Diese Muster können nicht aus der beobachteten Aufzeichnung bestimmt werden, da sich die Variationen aufgrund verschiedener externer Einflüsse gegenseitig und die internen Klimavariationen überlagern. Daher werden in der Regel Klimamodelle verwendet, um den Beitrag der einzelnen Faktoren abzuschätzen.

Offensichtlich ist diese Art von Hokuspokus gut genug, um so ziemlich die gesamte akademische Welt und die meisten Journalisten zu täuschen, ganz zu schweigen von einer Schar von Milliardären. Aber was ist mit der mittelalterlichen bzw. der römischen Warmzeit? Widerlegen die nicht die ganze Sache?

Link: https://www.manhattancontrarian.com/blog/2021-1-2-causation-of-climate-change-and-the-scientific-method via http://icecap.us/index.php/go/new-and-cool

Übersetzt von Chris Frey EIKE




Ein weiterer Blick auf den städtischen Wärmeinsel-Effekt

Nicola Scafetta hat gerade eine neue Arbeit in Climate Dynamics veröffentlicht, in der ser den Nachweis des städtischen Wärmeinseleffekts (UHI) untersucht (Scafetta, 2021). Die Arbeit ist nicht kostenpflichtig und kann hier heruntergeladen werden. Zusammengefasst zeigt Scafetta, dass ein Teil der jüngsten Erwärmung, die in der globalen HadCRUT 4 Temperaturaufzeichnung gezeigt wird, auf den UHI-Effekt zurückzuführen sein könnte. Er verwendet eine Analyse der täglichen Maximal- (Tmax) und Minimaltemperaturen (Tmin), Klimamodellausgaben und einen Vergleich der Meeresoberflächentemperaturen (SST) mit den Landtemperaturen, um den möglichen Einfluss auf den HadCRUT 4 Datensatz abzuschätzen.

Die verschiedenen Aufzeichnungen der Festlands-Temperatur werden nicht speziell bzgl. des UHI-Effektes korrigiert, sondern die NOAA und das Hadley Climatic Research Centre verlassen sich auf Homogenitäts-Algorithmen, um Anomalien zu glätten. Die NOAA nennt ihren Homogenisierungsprozess „PHA“, und der Algorithmus des Hadley Centre ist ähnlich, siehe diesen Beitrag oder den Artikel von Menne und Williams aus dem Jahr 2009 (Menne & Williams, 2009a) für eine Diskussion der Temperaturhomogenisierung. Während diese Algorithmen die Temperatur in den Städten senken, erhöhen sie auch die Temperaturen in den ländlichen Gebieten in der Umgebung der Städte. Erschwerend kommt hinzu, dass die letzten 70 Jahre eine Periode schnellen Bevölkerungswachstums und zunehmender Urbanisierung waren. Die Weltbevölkerung ist von 2,5 Milliarden Menschen im Jahr 1950 auf 7,5 Milliarden im Jahr 2020 gewachsen. Der UHI in London wurde auf bis zu 2,8°C in den Sommern zwischen 1990 und 2006 geschätzt.

UHI bewirkt, dass Tmin und Tmax im Vergleich zur Umgebung höher liegen, wobei jedoch die Differenz bei Tmin größer ist*. Dies bedeutet, dass der Tagesgang der Temperatur mit der Zeit abnimmt. Scafetta verwendet die Hadley Climatic Research Unit Temperaturaufzeichnungen (HadCRUT) und die Daten des Coupled Model Intercomparison Project 5 (CMIP5), um dieses Problem zu untersuchen. Er vergleicht ein Ensemble-Mittel der CMIP5 Tmax und Tmin Daten mit den HadCRUT Daten und untersucht die Unterschiede zwischen ihnen.

[*Im Stadtgebiet von Berlin wurden nach heißen Sommertagen bei Windstille und wolkenlosem Himmel gleichzeitigeTemperaturunterschiede bis 10 K zwischen Innenstadt und den Waldgebieten am Stadtrand gemessen! Anm. d. Übers.]

Die CMIP5-Modelle wurden auf die globalen und regionalen HadCRUT-Anomalien abgestimmt, so dass lokale Anomalien, wie z.B. UHI, in den Karten der Unterschiede zwischen den beiden Datensätzen sichtbar sind. Die CMIP5-Modelle parametrisieren keine Städte, so dass Unterschiede über Städten und umliegenden Gebieten auf einen verbleibenden UHI-Einfluss im HadCRUT-Datensatz hinweisen könnten.

Abbildung 1. Dies sind die globalen Tmax (rot)- und Tmin (blau)-Anomalien aus HadCRUT (A) und CMIP5 (B). Die Unterschiede sind in C und D dargestellt. Quelle: (Scafetta, 2021).

Abbildung 1 vergleicht die globalen Tmin- (blau) und Tmax- (rot) Anomalie-Aufzeichnungen von HadCRUT4 mit den CMIP5-Ensemblemittelwerten, die Scafetta in seiner Studie verwendet hat. Die Aufzeichnungen sind Anomalien von 1945-1954. Vergleicht man die Dekaden 1945-1954 und 2005-2014, so ist die Tmin-Tmax (DTR)-Differenz unterschiedlich. Der DTR bei HadCRUT4 beträgt 0,25 und der CMIP5 DTR 0,1. In beiden Fällen war die Differenz bei Tmin größer als bei Tmax.

Abbildung 2 zeigt, wie die Tmin-Tmax-Anomalieunterschiede im HadCRUT4-Datensatz verteilt sind:

Abbildung 2. Globale Verteilung der HadCRUT Tmin-Tmax Anomalien (DTR). Orange, lila und rot bedeuten, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Weiße Gebiete, einschließlich der Ozeane, haben keine Tmin- und Tmax-Daten. (Scafetta, 2021).

Wie man in Abbildung 2 sieht, zeigen die meisten Landgebiete einen positiven Wert, was bedeutet, dass Tmin stärker vom UHI beeinflusst wird als Tmax. Die in Abbildung 2 dargestellten HadCRUT-Daten zeigen, dass in großen Gebieten in Nordamerika und Asien Tmin viel schneller ansteigt als Tmax. Am deutlichsten ist dies im schnell urbanisierenden China und in den Wachstumsgebieten der USA und Kanadas.

In Abbildung 3 sehen wir, wie die Tmin-Tmax-Anomalien (DTR) des CMIP5-Ensembles verteilt sind. Die modellierten Tmin-Tmax-Anomalien sind viel gedämpfter und liegen näher an Null als die gemessenen und homogenisierten Werte.

Abbildung 3. Globale Verteilung der CMIP5 Tmin-Tmax-Anomalien (DTR). An den Polen, im hohen Norden und in Teilen Asiens und Zentralafrikas erwärmt sich Tmin etwas schneller als Tmax. Der größte Teil des Rests der Welt liegt nahe Null, einschließlich der Ozeane. (Scafetta, 2021).

Nur in der Nähe der Pole zeigen die Modelle einen größeren Anstieg von Tmin-Tmax, zusammen mit verstreuten Gebieten in Asien und Afrika. Grönland ist eine große Insel mit sehr geringer Bevölkerung, ~56.000 Menschen, und dort zeigt sich nur ein kleiner Unterschied zwischen den modellierten und den gemessenen Werten. Die tatsächlichen Werte variieren von -0,2 bis 0,2 und die modellierten Werte liegen zwischen 0 und 0,2.

Scafetta zeigt anhand zahlreicher Beispiele, „dass die Landklima-Aufzeichnungen von signifikanten, nicht klimatischen Verzerrungen betroffen sind.“ Tmin und Tmax gibt es nicht in den SST-Aufzeichnungen (Meeresoberflächentemperatur), aber wir können die SST-Aufzeichnungen mit den HadCRUT-Landaufzeichnungen über das CMIP5-Modellensemble vergleichen. Dabei stellte Scafetta fest, dass nach Berücksichtigung der thermodynamischen Unterschiede zwischen Land und Ozean die CMIP5-Simulationen mit den wärmeren Landaufzeichnungen übereinstimmen, aber die SST deutlich überbewerten. Eine Land-Simulation der Temperaturdifferenz zwischen dem Mittelwert von 1940 bis 1960 und dem Mittelwert von 2000-2020 zeigte eine Differenz zwischen Modell und HadCRUT von nur 0,06°C. Ein Vergleich zwischen CMIP5 (+0,69°C) und HadSST (+0,41°C) über den Ozeanen ergab eine Erwärmung von 0,28°C, was fünfmal höher ist.

Die Erwärmung der Landtemperatur nach HadCRUT beträgt etwa ein Grad von der Periode 1940-1960 bis zur Periode 2000-2020. Falls die CMIP5-Modelle und die HadSST-Aufzeichnungen genau sind, dann haben die Landaufzeichnungen eine Abweichung von +0,36°C. Dies ist ein Fehler von fast 60 %. Wir haben den großen Einfluss von Korrekturen auf die Temperaturaufzeichnungen schon früher diskutiert, siehe diesen Beitrag für mehr zu diesem Thema [in deutscher Übersetzung beim EIKE hier].

Diskussion

Scafettas Studie zeigt eine mögliche systemische Verzerrung in den HadCRUT-Aufzeichnungen. Der größte Teil der Verzerrung, wie in Abbildung 2 gezeigt, befindet sich in Gebieten mit schneller städtischer Entwicklung über den Untersuchungszeitraum von 1940 bis 2020. Es gibt weitere Anomalien, die bemerkenswerte in Bolivien könnte auf die schnelle Abholzung in diesem Gebiet zurückzuführen sein. Die Anomalien in den trockenen Teilen Nordafrikas könnten auf einen umgekehrten urbanen Effekt zurückzuführen sein, da in diesen Gebieten die Urbanisierung ein kühleres Gebiet im Vergleich zu den umliegenden ländlichen Gebieten schafft.

Alle in der Studie verwendeten Daten sind fehlerhaft. Endgültige Schlussfolgerungen können nicht gezogen werden. Aber es scheint, dass der Landteil des HadCRUT 4 Datensatzes wärmer ist als er sein sollte, relativ zur SST. Es ist auch wahrscheinlich, dass dieser warme Bias in die CMIP5-Modelle durchgesickert ist. Die jüngsten DTR-Werte (Tmax-Tmin) sind stärker gesunken, als die CMIP5-Modelle vorhergesagt haben. Dies könnte ein Problem mit den Modellen in städtischen Gebieten sein, oder es könnte an den Homogenisierungs-Algorithmen liegen, die vom Hadley Climatic Research Centre verwendet werden und welche die Erwärmung der städtischen Wärmeinsel über große Gebiete verschmieren. So oder so hat Scafetta gezeigt, dass diese Datensätze nicht konsistent sind und einer oder mehrere von ihnen eine erhebliche systemische Verzerrung enthalten können.

Ein letzter Punkt. Wenn die Daten um die oben beschriebene offensichtliche Verzerrung korrigiert und mit der unabhängigen globalen Mitteltemperatur der unteren Troposphäre (hier) von UAH (Spencer, et al., 2017) verglichen werden, sehen wir, dass der korrigierte HadCRUT-Datensatz näher an diesem liegt als das Original, das in Abbildung 4B schwarz dargestellt ist. Dieser Vergleich zeigt, dass die offensichtliche Verzerrung, die von Scafettas Studie entdeckt wurde, eine gewisse empirische Unterstützung hat.

Abbildung 4A vergleicht den originalen HadCRUT 4.6 Datensatz (schwarz) mit Scafettas korrigiertem Datensatz in rot. Der CMIP5-Modell-Ensemble-Mittelwert (gelb) ist zusammen mit 106 unabhängigen Modellläufen in grün dargestellt. Die Abbildungen 14A und 14B verwenden die gleichen Farben. Abbildung 14B fügt die globale UAH-Durchschnittstemperatur der unteren Troposphäre in blau hinzu. Alle Kurven sind Anomalien zum Zeitraum 1940-1960.

Relativ zu 1940 bis 1960 zeigt die ursprüngliche HadCRUT-Kurve 0,59°C Erwärmung und 0,48°C mit Scafettas Korrekturen. Die UAH-Aufzeichnung zeigt 0,44°C. Die CMIP5-Klimamodelle zeigen eine Erwärmung von 0,78°C.

Nach Scafettas Korrektur ist es möglich, dass nicht-klimatische Verzerrungen ein Fünftel der berichteten globalen Erwärmung der HadCRUT seit 1940-1960 beigetragen haben. Es ist auch möglich, dass die CMIP5-Klimamodelle die Erwärmung um ein Drittel überbewerten. Dies sind signifikante Probleme.

Abbildung 4. Grafik A zeigt die einzelnen Modellläufe in grün, den CMIP-5-Mittelwert in gelb, den unkorrigierten HadCRUT-Rekord in schwarz und den korrigierten HadCRUT-Rekord in rot. B zeigt den gleichen HadCRUT korrigierten Datensatz in rot, den UAH Datensatz der unteren Troposphäre in blau und den ursprünglichen HadCRUT Datensatz in schwarz. Die roten und schwarzen Linien in A & B sind die gleichen.

Literatur:

Menne, M., & Williams, C. (2009a). Homogenization of Temperature Series via Pairwise Comparisons. Journal of Climate, 22(7), 1700-1717. Retrieved from https://journals.ametsoc.org/jcli/article/22/7/1700/32422

Scafetta, N. (2021, January 17). Climate Dynamics. Retrieved from https://doi.org/10.1007/s00382-021-05626-x

Spencer, R., Christy, J., Braswell, W. (2017), UAH Version 6 global Satellite Temperature Products: Methodology and Results, Asia-Pac J Atmos Sci 53:121-130.

Link: https://wattsupwiththat.com/2021/01/22/a-new-look-at-the-urban-heat-island-effect/

Übersetzt von Chris Frey EIKE

 




Anthropo­gener Treibhaus­effekt: nach wie vor zu schwach für die Klima­katastrophe!

Der Verfasser stellt dort eine einfache Energiebilanz an der Erdoberfläche auf und umgeht damit die komplizierten und großenteils unverstandenen Vorgänge in der Atmosphäre und in den Ozeanen. Dabei ist hervorzuheben, dass sich das irdische Leben in einer extrem dünnen Grenzschicht an der Erdoberfläche abspielt, während die Atmosphäre mit der Höhe rasch lebensfeindlicher, dünner und kälter wird. Gleichzeitig hat die Erdoberfläche eine deutlich größere Wärmespeicherkapazität als die umgebende Atmosphäre. Wobei sich die Atmosphäre in der Grenzschicht im ständigen Wärmeaustausch und Temperaturausgleich mit der Erdoberfläche befindet. Ein Ansatz, dem hier in etwas geänderter und verallgemeinerter Form gefolgt wird.

Das nachfolgende Strahlungsdiagramm nach Trenberth-Kiehl beinhaltet zwar ein physikalisch merkwürdiges Phänomen, nämlich die Generierung einer starken Gegenstrahlung in der Atmosphäre, die ausschließlich nach unten strahlt. Doch findet man in der Grafik recht detaillierte Zahlenangaben:

Gemäß obiger Grafik besteht an der Erdoberfläche ein Gleichgewicht aus eingestrahlter Sonnenenergie (So) und wieder abgegebener Energie in Form von Verdunstung (Evap), Infrarotstrahlung (Erad) und Konvektion (Kon).

Dieses Gleichgewicht wird um einen zunächst unbekannten Antrieb („forcing“) X erweitert:

So + Evap + Erad + Konv + X = 0

Der Antrieb X kann dabei unterschiedliche Ursachen haben – am geläufigsten ist der zusätzliche Strahlenantrieb durch vermehrtes CO2. Der Sonnenanteil So bleibt in dieser Bilanz konstant – Änderungen bei der Einstrahlung, z.B. durch veränderte globale Bewölkung, sind im Antrieb X enthalten. Ist der Antrieb X von Null verschieden und die Kühlterme Erad, Evap und Konv ändern sich monoton mit der Temperatur, dann stellen sich Gleichgewicht und Temperatur neu ein. Aus der neuen Gleichgewichtsbilanz erhält man dann die Temperaturänderung ΔT = T – T0, abhängig vom Antrieb X. To ist dabei die global gemittelte Ausgangstemperatur mit 15 ºC bzw. 288 K. Für den Startwert T = T0 gilt X = 0.

Zu der Erwärmung der Erdoberfläche tragen bei:

Sonne:

Gemäß obiger Grafik beträgt die an der Erdoberfläche im Mittel absorbierte Sonneneinstrahlung (So), abzüglich 0,9 Watt/m2 Nettoabsorption:

So = 160 Watt/m2

Zusätzlicher Antrieb X:

Wenn man den Antrieb X ausschließlich einem CO2-Anstieg zuschreibt, dann gilt:

X = 5,35 ⋅ ln (C/Co) [Watt/m²] mit der atmosphärischen CO2-Dichte C

Dieser „Strahlungsantrieb“ entsteht der Theorie zufolge durch spektroskopische Absorption und Emission bei den Resonanzlinien des Spurengases CO2, was in diesem Wellenlängenbereich den Energietransport verlangsamt und was vorwiegend in der dichteren, unteren Atmosphäre geschieht. Die logarithmische Abhängigkeit in der Formelbeziehung für X ist Folge der spektroskopischen Sättigung des CO2 in der Atmosphäre. Der Strahlungsantrieb wächst dabei mit zunehmendem CO2 immer langsamer. Wobei die Verdoppelung der CO2-Dichte C einen zusätzlichen Strahlungsantrieb von X= 3,7 Watt/m2 generiert. Was einer Temperaturerhöhung von 1,1 Grad (einige Autoren nennen etwas höhere Werte) entspricht und als CO2-Klimasensitivität definiert ist.

Zusätzlich gibt es positive Rückkopplung oder Verstärkung, z.B. durch vermehrten Wasserdampf, das bedeutendste Klimagas. Aber auch negative Rückkopplung oder Abschwächung des Strahlungsantriebs, z.B. durch Überdeckung der Absorptionsfenster von CO2 und Wasserdampf, Abkühlung durch vermehrte Wolkenbildung und Aerosole sowie weitere Wechselwirkungseffekte in einer komplizierten, großenteils unverstandenen Atmosphäre spielen eine Rolle.

Man kann sich den Temperaturanstieg der letzten 150 Jahre auch mit natürlicher (Rück-)Erwärmung seit der Kleinen Eiszeit erklären, wie es schon bei früheren Kalt- und Warmzeiten der Fall war – ganz ohne anthropogenes CO2. Wobei allerdings die Ursachen für die damaligen Temperaturänderungen nicht bekannt sind. Auch urbane Wärmeinseleffekte, Landnutzungsänderungen, Energiefreisetzung durch die Menschen, wahrscheinlich auch der Flugverkehr und natürliche periodische Einflüsse (z.B. ozeanische Oszillationen und variierende Sonneneinstrahlung, verstärkt durch den Svensmark-Effekt) tragen bei.

Die Behauptung von Alarmforschern ist falsch, man könne sich den neuzeitlichen Temperaturanstieg nur mit anthropogenem CO2 erklären.

Die Bezeichnung „X“ wird deshalb gewählt, weil der Antrieb X einer black box ähnelt, deren Inhalte man nicht genau kennt.

Wasserdampf-Rückkopplung:

Die Rückkopplung durch zusätzlichen Wasserdampf wird in der Bezugsveröffentlichung aus nachfolgender Grafik für die spektroskopische Transmission in der Atmosphäre ermittelt:

Folgt man der zitierten Arbeit, trägt der Wasserdampf etwa 8 Watt/m2 zum Strahlungsantrieb bei – offensichtlich geschätzt anhand des atmosphärischen Fensters und der Reduktion der durchgehenden Strahlung (nach Trenberth-Kiel 40, in der Bezugsarbeit 45 Watt/m²) durch Wasserdampfabsorption und -streuung. Aufgrund von 7,5 Prozent mehr Wasserdampf pro 1 Grad Temperaturerhöhung wird demnach das Infrarot-Fenster um jeweils 0,6 Watt/m² weiter verkleinert. Was in diesem Modell der (positiven) Wasserdampf-Rückkopplung ΔR entspricht:

ΔR = 8 . (1,075 ΔT – 1) Watt/m2 mit ΔT = T – T0

Die Genauigkeit des Ansatzes soll hier nicht weiter hinterfragt werden. Von der Größenordnung her gehört ΔR zu den kleineren Beiträgen der Oberflächenbilanz. Außerdem ist die positive Wasserdampfrückkopplung ΔR ein Antrieb und in der eingangs aufgestellten Bilanz im Antrieb X mit enthalten. In den üblichen Klimamodellen verstärkt ΔR den Infrarot-Strahlungsantrieb der Klimagase und trägt dort zur Erhöhung der Klimasensitivität bei.

Kühlung der Erdoberfläche:

Verdampfung/Verdunstung:

Die in dem Strahlungsdiagramm (ganz oben) aufgeführte, relativ große Verdunstungswärme von 80 Watt/m2 lässt sich aus Niederschlagsmenge und spezifischer Verdunstungswärme offenbar recht gut ermitteln – weil sämtlicher Wasserdampf als Niederschlag und Tau zur Erde zurückkehrt.

Die Verdunstung von Wasser entzieht der Erdoberfläche Energie und transportiert diese in die höheren Atmosphärenschichten. Dort wird die Energie durch Kondensation (Wolkenbildung) wieder abgegeben und ins Weltall abgestrahlt. Durch das Abregnen der Wolken wird der Wasserkreislauf geschlossen. Für die Stabilität des Klimas ist von großer Bedeutung, dass die Verdunstungswärme stark abhängig von der Oberflächen-Temperatur der Erde ist. Diese Tatsache lässt sich an den Niederschlägen ablesen. Wir wissen, dass die Niederschläge dort am höchsten sind, wo die meiste Wärme von der Erdoberfläche abgeführt werden muss – am Äquator. Wir wissen auch, dass die Niederschläge auf der Erde mit der Erwärmung der letzten 100 Jahre zugenommen haben. Mit durchschnittlich 80 Watt/m² liefert die Verdunstung etwa 50 Prozent des Wärmetransports von der Erdoberfläche Richtung äußere Atmosphäre. Eine höhere Oberflächentemperatur führt zwangsläufig zu einer stärkeren Verdunstung weil Dampfdruck und Aufnahmefähigkeit der Luft für Wasserdampf ansteigen. Bereits ein Grad Erwärmung erhöht die Verdunstung und damit den Wärmetransport um 7,5 %. Bezogen auf den gesamten Wärmetransport von 80 Watt/m² sind das immerhin 6,0 Watt/m² zusätzlicher Kühleffekt an der Erdoberfläche. Die Verdunstung stellt also ein starkes Dämpfungsglied gegen Änderungen des Klimas dar.

Der Wärmetransport durch Verdunstung und dessen Zunahme mit der Temperatur bestimmen das Ergebnis maßgeblich. Für den Dampfdruck von Wasser lässt sich die Zunahme von etwa 7,5 % bei einem Grad Erwärmung verifizieren – z.B. hier. Bei der engl. Wikipedia heißt es: The rate of evaporation in an open system is related to the vapor pressure found in a closed system.“ Aber was bedeutet „related to“? Lassen sich die Angaben in der Bezugsveröffentlichung bestätigen?

Hilfreiche Zahlen bietet nachfolgende Pool-Tabelle, vermutlich durch Messungen ermittelt. Man sieht dort gut, wie die verdunsteten Wassermengen mit der Temperatur zunehmen, in der Regel sogar um etwas mehr als 7,5%. Dabei ist RH die Relative Luftfeuchtigkeit und DEW PT der Taupunkt, Temperaturen in Fahrenheit.

Die Temperaturschritte von 2 ºF entsprechen jeweils 1,112 ºC. 68 ºF entsprechen 20 ºC und 86 ºF 30 ºC.

Dabei ist zu beachten, dass in den Tropen und in den Regenwäldern das meiste Wasser verdunstet. Auch steigt durch Wellengang und Wind die Verdunstung deutlich an – nach folgender Tabelle bis zu einem Faktor zwei.

Hingegen dürfte über den 29% Landfläche die Verdunstung niedriger sein, regional abhängig von Bodenfeuchte und Bewaldung. Eine mittlere Zunahme von Verdunstung und Wärmetransport um 7,5% je 1 ºC Temperaturerhöhung, wie in der Bezugsarbeit angenommenen, scheinen realistisch.

Als Formelbeziehung erhält man damit:

Evap = 80 ⋅ 1,075 ΔT Watt/m2

Evap ist dabei die Verdunstungswärme, ΔT = T – T0.

In der Bezugsveröffentlichung wird der Spezialfall ΔT = 1ºC behandelt.

Strahlung:

Folgt man der Strahlungsbilanz in der ersten Grafik oben, dann werden netto 63 Watt/m2 vom Boden abgestrahlt und davon etwa 40 Watt/m2 direkt in den Weltraum (in der Bezugsarbeit 45 Watt/m2). Die restlichen 23 Watt/m2 nehmen den „Umweg“ über die Atmosphäre. Entscheidend ist aber für die Betrachtung hier, wie viel Strahlung die Erdoberfläche verlässt.

Durch einen veränderten Antrieb X ändert sich die Temperatur T = T0 + ΔT und somit auch die Wärmeabstrahlung Erad mit der 4. Potenz von T:

Erad = 63 · (T/T0)4 Watt/m²

Konvektion:

Konvektion ist der Transport thermischer Energie durch fühlbare Wärme der Luftmassen. Der Antrieb sind Dichteunterschiede. Wird die Erdoberfläche wärmer, verstärkt sich die Thermik und transportiert mehr Energie in Richtung höhere Atmosphäre. Der Anteil der Konvektion am Wärmetransport ist mit knapp 11 Prozent (gemäß TK-Grafik) gering und dürfte gemäß folgender Beziehung mit der Temperatur zunehmen:

Konv = 17 · (1 + ΔT/T0) Watt/m2 mit ΔT = T – T0 und T0 = 288 K

Naheliegend wäre jetzt, in die Oberflächenbilanz die oben aufgeführten Formelbeziehungen einzusetzen, um so die Beziehung zwischen X und ΔT auszurechnen. Einfacher und anschaulicher geht es, wenn man in nachfolgender Tabelle zeilenweise die Änderungen von X und ΔT vergleicht.

Bilanz

Eine Änderung des Antriebs X führt zu einer Temperaturänderung ΔT = T – T0 in der ersten Spalte. Mit der sich ändernden Temperatur T ändern sich auch die Kühleffekte. Es stellt sich ein neues Gleichgewicht ein, die Bilanz ist wieder ausgeglichen. Dabei kommen für den Antrieb X neben Klimagasen auch andere, z.T. natürliche Erwärmungsursachen in Betracht. Berechnet wird X aus der (negativen) Summe von So, Evap, Erad und Konv in der jeweiligen Tabellenzeile. Grundsätzlich sind auch negative Antriebe X möglich mit Temperaturrückgängen wie in der ersten Tabellenzeile, wie sie z.B. infolge bevorstehender solarer Minima eintreten könnten.

In der Bezugsarbeit wurde eine niedrige Klimasensitivität von 0,58 ºC ermittelt.

Was folgt daraus?

1) Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung. Dabei erkennt man: Mit steigender Temperatur T = T0 + ΔT wachsen die verursachenden Antriebe X schneller als die zugehörigen Temperaturanstiege. Ein runaway-Effekt bei den Temperaturen ist deshalb nicht zu befürchten.

Bei spektroskopischer Erwärmung nur durch CO2 beträgt bei CO2-Verdoppelung der CO2-Antrieb 3,7 Watt/m2. Was in den bisherigen Klimamodellen einer Temperaturerhöhung bzw. CO2-Klimasensitivität von 1,1 Grad entspricht. Im Oberflächenmodell steigen bei einem gleichgroßen Antrieb die Temperaturen nur um 0,53 Grad – hauptsächlich als Folge der Verdunstungskühlung.

Was recht gut mit der Bezugsarbeit übereinstimmt. Berücksichtigt man ferner, dass X alle natürlichen und anthropogenen Antriebe mit enthält, dann ist eine Klimasensitivität von 0,53ºC sehr niedrig und zu vernachlässigen. Umgekehrt gilt genauso: Eine (utopische) Dekarbonisierung wird die Temperaturen kaum beeinflussen. In der Bezugsarbeit wird auf weitere Arbeiten verwiesen, die ähnlich niedrige Ergebnisse für die Klimasensitivität ermitteln.

Zur Erinnerung: Der IPCC gibt für die CO2-Klimasensitivität eine Spanne von 1,6 bis 5,6 Grad C an, aber nur mit einer Wahrscheinlichkeit von 66%. Was um eine Größenordnung höher ist.

In den letzten 150 Jahren sind die globalen Temperaturen offenbar um 1 Grad gestiegen. Das CO2 in der Atmosphäre dabei um knapp 50%, was einem CO2-Antrieb von 2,17 Watt/m2 entspräche. Dazu eine Vergleichstabelle für diesen Antrieb und den Auswirkungen auf die Temperaturen:

Bei der Rechnung gemäß Oberflächenbilanz ist noch viel Raum für weitere Antriebe wie z.B. Wasserdampf-Rückkopplung oder andere, nicht-anthropogene Antriebe. Das anthropogene CO2 alleine reicht für 1 Grad Temperaturerhöhung hier bei weitem nicht. Während der IPCC mit positiver Wasserdampf-Rückkopplung rechnet und diesen Wasserdampf-Zusatzantrieb der CO2-Klimasensitivität zuschlägt – nur das anthropogene CO2 ist alleiniger Übeltäter! Und mit seinen Computer-Klimamodellen viel zu hohe Temperaturen errechnet. Halbwegs passend wird es nur, wenn der IPCC die niedrigeren Klima-Sensitivitäten am unteren Rand seines Unsicherheitsbereichs verwendet. Auch gibt es kaum Platz für natürliche Antriebe, deren Existenz der IPCC im Wesentlichen bestreitet.

So spricht für das Oberflächenmodell unter anderem, dass die Temperaturprognosen des IPCC meist zu hoch liegen. Auch die höheren Landtemperaturen stimmen mit dem Oberflächenmodell überein, weil es an Land meist weniger Verdunstung gibt. Allerdings tragen dazu auch Wärmeinseleffekte, Landnutzungsänderungen und die Temperaturträgheit der Ozeane bei. Für das Oberflächenmodell spricht ferner, dass alle beteiligten Größen gut verstanden sind – im Gegensatz zu den Klimamodellen des IPCC.

2) Die Wasserdampf-Rückkopplung ΔR wurde in der Bezugsarbeit näherungsweise aus der Grafik oben für die spektrale Transmission in der Atmosphäre abgeleitet. Interessant ist die Größenordnung: Als Effekt zweiter Ordnung ist die (zusätzliche) Wasserdampf-Rückkopplung deutlich kleiner als der auslösende Antrieb – was plausibel ist.

3) Ein weiterer Aspekt ist bemerkenswert: Es wird der große Einfluss der Verdunstungswärme auf das Temperaturgeschehen deutlich. Mehr Verdunstung, wie es bei höherer Bodenfeuchte der Fall ist, wirkt kühlend, senkt dadurch die Temperaturen und umgekehrt.

Wenn die Herren Kowatsch und Kämpfe in Deutschland eine zunehmende Trockenheit aufgrund menschlicher Eingriffe in den Wasserhaushalt aufzeigen, dann führt die verringerte Verdunstungskühlung zu zusätzlicher Erwärmung.

Autor: Dr. Roland Ullrich ist Physiker und promovierte an der TU München über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.




Amerikaner haben vermutlich soeben ausschließlich für Elektro­fahrzeuge gestimmt

Der designierte Präsident Biden hat versprochen, dass sein 2-Billionen-Dollar-Plan zum Klimawandel „rigorose neue Kraftstoffverbrauchsstandards beinhalten wird, die sicherstellen sollen, dass 100 % der Neuverkäufe von leichten und mittelschweren Nutzfahrzeugen emissionsfreie Fahrzeuge (ZEVs) sein werden.“ Die designierte Vizepräsidentin Harris hat dazu aufgerufen, dieses Verbot bereit im Jahre 2035 in Kraft zu setzen, vielleicht sogar früher, falls sie ihren Schwung für die grundlegende Umgestaltung Amerikas beibehalten können.

Sobald der Verkauf neuer Fahrzeuge mit Benzinmotor verboten ist, stellt sich nur noch die Frage, wie lange es dauert, bis auch das Fahren solcher Fahrzeuge verboten ist. Harris hat versprochen, dass wir nach „meinem Plan bis 2045 praktisch nur noch emissionsfreie Fahrzeuge haben werden. 100% bis 2045.“

Das bedeutet natürlich null Emissionen in den USA, vorausgesetzt, dass die gesamte Stromerzeugung zum Laden der Batterien ebenfalls emissionsfrei ist – trotz enormer Emissionssteigerungen an den Orten, an denen die Batteriemineralien abgebaut und verarbeitet und die Batterien hergestellt werden (was wahrscheinlich nicht in Amerika sein wird).

Um die staatlich verordnete Transformation von 99,5% der US-Fahrzeuge, die noch nicht ZEVs sind, zu beschleunigen, plant Bidens Verbündeter Senator Chuck Schumer eine Gesetzgebung einzuführen, die Anreize oder Rabatte in Höhe von 454 Milliarden Dollar für [vom Steuerzahler aufzubringende] „Abwrackprämien“ genehmigt, um die Menschen dazu zu bewegen, benzinbetriebene Fahrzeuge durch super-teure vollelektrische Fahrzeuge (EVs) zu ersetzen. Schumers Plan beinhaltet auch den Bau einer halben Million neuer EV-Ladestationen und den Ersatz der gesamten US-Regierungsfahrzeugflotte durch EVs.

Das ist fast ein Viertel von Bidens 2-Billionen-Dollar-Klimaplan. Der Rest des massiven Green New Deal (GND) wird wahrscheinlich mindestens Bernie Sanders‘ 16-Billionen-Dollar-Plan kosten, wenn nicht noch weit mehr.

Seit Henry Ford 1913 das Fließband für sein Modell T einführte stand Amerika nicht mehr vor einem solchen Wandel im Transportwesen. Der große Umstieg auf eine reine E-Flotte wird ebenso massive Veränderungen in der amerikanischen Gesellschaft bewirken, neue Gewinner und neue Verlierer hervorbringen, den Besitz eines Fahrzeugs für arme und sogar Mittelklasse-Familien fast unmöglich machen und das Gleichgewicht der Weltmacht von Ländern, welche die „Versorgung mit Öl zu Marktpreisen“ sicherstellen, zu denen verschieben, die GND-Mineralien abbauen (hauptsächlich China und Russland).

Der Big Switch ist schon seit Jahren in Arbeit. Bereits 2017 hatten viele Länder Termine für das Verbot von Verbrennungsmotoren angekündigt. Norwegen sagte, das Datum 2025 sei nur ein „Vorschlag“, aber Deutschland, Frankreich und das Vereinigte Königreich setzten „feste“ Daten und planten das Jahr 2040, während die Niederlande die Beerdigung auf 2030 verschoben. Österreich, Dänemark, Irland, Japan, Portugal, Südkorea und Spanien legten ebenfalls Termine fest, ebenso wie Indien – und mehrere amerikanische Bundesstaaten wie (natürlich) Kalifornien.

Große Autohersteller versprachen auch, die Produktion von ICE-Fahrzeugen bald zu beenden, obwohl Umfragen aus dem Jahr 2017 zeigen, dass nur 30 % von Personen in mittlerem Alter (und ein viel geringerer Prozentsatz der älteren Fahrer) bereit waren, in ein Elektrofahrzeug zu „investieren“. Und das, obwohl Studien des Ökonomen Tilak Doshi und anderer zeigen, dass ein typisches Elektroauto selbst nach 50.000 Kilometern auf der Straße effektiv etwa 76 % so viel Kohlendioxid ausgestoßen hat wie ein benzinbetriebenes Fahrzeug.

Das liegt daran, wie der Ökonom Bjorn Lomborg erklärt, dass die Batterien von Elektroautos das Produkt von emissionsintensiven Bergbau-, Mineralienverarbeitungs- und Herstellungsprozessen sind, und dass der Strom zum Aufladen der Batterien oft zusätzliche CO2-Emissionen mit sich bringt.

Der Begriff „Null-Emissions-Fahrzeuge“ ist offensichtlich eine absichtlich falsche Bezeichnung [in deutscher Übersetzung beim EIKE hier], da die Emissionen lediglich von den reichen westlichen Ländern in andere Nationen verlagert werden, wo sie stetig steigen.

Der Big Switch wird in einigen Sektoren Arbeitsplätze schaffen. Aber er wird auch zu einem erheblichen Rückgang von Arbeitsplätzen in der Öl- und Gasindustrie führen, zu sinkenden Umsätzen für Convenience Stores, die vom Benzinverkauf profitieren, und zu erheblichen Kostensteigerungen bei der Herstellung von Petrochemikalien, Pkw- und Lkw-Reifen, Dachschindeln, Kunststoffen, Arzneimitteln und einer Vielzahl anderer Konsumgüter, die auf Öl und Gas als Rohstoffe angewiesen sind.

All das bedeutet auch enorme Einbußen bei Pachtprämien, Mieten, Lizenzgebühren und Steuereinnahmen für die Staaten, die fossile Brennstoffe fördern.

Vorschriften für Elektrofahrzeuge werden auch der Autoreparatur- und Versicherungsbranche schaden. Ein EV-Antrieb hat etwa 20 bewegliche Teile, verglichen mit bis zu 2.000 bei Benzin-Fahrzeugen. Allerdings sind diese Teile tendenziell teurer und (zumindest in naher Zukunft) weniger leicht verfügbar. Das bedeutet, dass E-Fahrzeuge, die repariert werden müssen oder neue Teile benötigen, länger in den Werkstätten stehen werden. Werden die Versicherer diese zusätzlichen Kosten übernehmen?

Der „Big Switch“ wird auch große Veränderungen in der Steuerpolitik für die lokalen und staatlichen Regierungen sowie die [US-]Bundesregierung bedeuten, die alle stark auf die Benzinsteuern angewiesen sind, um die Instandhaltung und Reparatur der Autobahnen zu finanzieren. Die Steuer in Höhe von 18,4 Cent pro Gallone fließt in den Highway Trust Fund, der einen großen Teil davon bezahlt (mit einer separaten kleinen Steuer, die die Sanierung von undichten unterirdischen Kraftstofftanks abdeckt).

Wird Washington einen Weg finden, diese entgangenen Einnahmen zu ersetzen, wenn die Benzinverkäufe weiter zurückgehen?

(Verwandte Fragen: Wie werden fahrerlose Fahrzeuge mit all den wuchernden, sich ausbreitenden und tiefer werdenden Schlaglöchern umgehen? Und was wird mit Familien-Urlaubern in Autos passieren, die für jede halbe Stunde Fahrt stundenlang aufgeladen werden müssen? Was bedeutet das für unsere Tourismus- und Gastgewerbebranche sowie unsere Grundfreiheiten?).

Autobahnen, die von staatlichen und lokalen Benzinsteuern unterhalten werden, sind bereits von sinkenden Einnahmen bedroht – dank EVs, Hybriden und ICE-Fahrzeugen mit höherer Kilometerleistung – und dank der Pandemie 2020, die das Fahren auf Autobahnen im April 2020 um 64 % und auch danach deutlich reduziert hat. Einige Staaten erhöhen die Zulassungsgebühren für Elektrofahrzeuge: In Alabama beträgt sie nun 200 Dollar für EVs und 100 Dollar für Plug-in-Hybride (ein Viertel davon wird für die Finanzierung von EV-Ladestationen verwendet), während Kalifornien im vergangenen Juli eine jährliche EV-Gebühr von 100 Dollar eingeführt hat.

Das ist noch nicht alles. Heutzutage kann man ein älteres benzinbetriebenes Fahrzeug, das die Inspektion besteht, für weit unter 2.000 Dollar kaufen. Batterien für diese Fahrzeuge kosten unter 200 Dollar, und viele wirklich ältere Fahrzeuge können von Amateurmechanikern repariert werden. Im Gegensatz dazu kann der Austausch einer EV-Batterie bis zu 6.000 Dollar (oder viel mehr) kosten, was selbst gebrauchte Elektrofahrzeuge für Millionen von Amerikanern unerschwinglich macht, in einer Nation, in der die Hälfte aller Fahrzeuge älter als zehn Jahre ist.

In der Zwischenzeit bauen China, Indien und Dutzende anderer Länder Tausende von neuen Kohle- und Gaskraftwerken – und bringen Millionen neuer Benzin- und Diesel-Fahrzeuge auf ihre Straßen. Es wird also keine Reduktion der globalen Emissionen geben, was bedeutet, dass all diese Belastungen und Störungen in den USA absolut keinen Nutzen bringen werden, selbst falls CO2 den Klimawandel antreibt.

Noch im Jahr 2017 sagten Branchenexperten, dass der Anteil der E-Fahrzeuge bis 2050 weltweit nur 25 % betragen wird. Die Menschen in anderen Ländern wollen und können sie sich auch nicht leisten.

Ebenso bedeutsam ist, dass der Biden-Harris-Plan auch einen vollständigen Ausstieg aus fossilen Brennstoffen für die Stromerzeugung vorsieht – zusammen mit dem erheblichen Anstieg des Stromverbrauchs, der benötigt wird, um E-Fahrzeuge in Bewegung zu halten. Selbst falls Biden, Harris, Demokraten und Grüne die Kernenergie als „erneuerbaren“ (oder zumindest emissionsfreien) Brennstoff akzeptieren, wird es Jahrzehnte dauern, genügend neue Kernkraftwerke zu bauen.

Aber wann haben Moskau oder Peking jemals alle, die meisten oder auch nur einige Ziele ihrer Fünf-Jahres-Pläne erfüllt? Glaubt wirklich jemand, dass eine zentralisierte staatliche Planung hier besser funktionieren wird? Noch entscheidender:

Werden wir, das Volk, in der Lage sein, diese Themen in öffentlichen Foren anzusprechen und zu diskutieren? Werden die republikanischen Mitglieder des Kongresses irgendeine sinnvolle Möglichkeit haben, dies während der Anhörungen im Ausschuss oder in den Debatten im Plenum zu tun?

Oder werden wir alle nur abgewürgt, zensiert, zum Schweigen gebracht und in die Unterwerfung in den neu progressiven, intoleranten und geteilten Staaten von Amerika getrieben – inmitten von mehr verlogenen Rufen nach Einigkeit und Mitgefühl?

[Originally posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/americans-supposedly-just-voted-for-only-electric-vehicles

Übersetzt von Chris Frey EIKE