Amerikaner bleiben skeptisch gegenüber Elektrofahrzeugen

Chris Talgo

Am 4. Juni veröffentlichten das Energy Policy Institute der University of Chicago und das Associated Press-NORC Center for Public Affairs Research ihre zweite jährliche Umfrage über die Einstellung der Amerikaner zu Elektrofahrzeugen, aus der erneut hervorging, dass die meisten Amerikaner nicht die Absicht haben, in naher Zukunft Elektrofahrzeuge zu kaufen.

Im Jahr 2023 gaben 47 Prozent der Amerikaner an, dass sie beim nächsten Autokauf „nicht sehr wahrscheinlich/überhaupt nicht wahrscheinlich“ ein Elektrofahrzeug (EV) kaufen werden, während 19 Prozent mit „ extrem wahrscheinlich/sehr wahrscheinlich“ antworteten. Ein Jahr später haben sich diese Zahlen kaum noch verändert. Im Jahr 2024 sind 46 Prozent der Amerikaner nach wie vor der Meinung, dass der Kauf eines Elektrofahrzeugs „nicht sehr wahrscheinlich/überhaupt nicht wahrscheinlich“ ist, während 21 Prozent der Befragten angaben, dass sie beim nächsten Autokauf „extrem wahrscheinlich/sehr wahrscheinlich“ ein Elektrofahrzeug kaufen werden.

Auf die Frage, warum sie kein Elektroauto kaufen würden, blieben die von den Amerikanern angeführten Hauptgründe im letzten Jahr fast unverändert.

Im Jahr 2023 nannten 60 Prozent der Amerikaner als Hauptgrund die hohen Kosten für ein neues Elektrofahrzeug. In diesem Jahr sagten 59 Prozent das Gleiche.

Im Jahr 2023 gaben 39 Prozent der Befragten an, dass es zu lange dauert, ein Elektrofahrzeug aufzuladen. In diesem Jahr nannten 38 Prozent dies als einen wichtigen Grund.

Weitere wichtige Gründe sind, dass 47 Prozent sagen, „die Reichweite eines Elektrofahrzeugs ist nicht groß genug“, 39 Prozent sagen, sie „bevorzugen einfach ein Fahrzeug mit Benzinmotor“, und 38 Prozent sagen, sie „kennen keine Ladestationen in der Nähe“.

Auch wenn viele Linke diese Gründe wahrscheinlich nicht nachvollziehen können, sollten sie zumindest versuchen, das Misstrauen der meisten Amerikaner gegenüber Elektroautos zu verstehen.

Seit mehreren Jahren versuchen die Linken, den Amerikanern E-Fahrzeuge unter dem Vorwand aufzuzwingen, dass E-Fahrzeuge besser für die Umwelt sind, dass sie Geld sparen, weil sie kein Benzin mehr bezahlen müssen, und dass sie auch Geld sparen, weil sie behaupten, dass E-Fahrzeuge weniger Reparaturen benötigen als benzinbetriebene Fahrzeuge.

Doch nach mehr als einem Jahrzehnt, in dem sie die Elektromobilität von oben herab vorantreiben, glaubt die große Mehrheit der Amerikaner immer noch nicht an den Hype um die Elektroautos.

Das amerikanische Volk ist klüger als es die Mainstream-Medien, die akademische Welt, Hollywood und andere von den Linken beherrschte Institutionen glauben machen wollen. Tatsächlich ist der gesunde Menschenverstand unter den hart arbeitenden Amerikanern viel weiter verbreitet als unter den Schlaumeiern, die diese hirnrissigen Pläne aushecken, um unser tägliches Leben zu verändern.

Die meisten Amerikaner wissen zum Beispiel, dass E-Autos für Ideologie durchtränkte Linke, die in den Großstädten entlang der Küsten leben, wahrscheinlich sehr attraktiv sind. Sie wissen auch instinktiv, dass diese Menschen in der Regel recht wohlhabend sind, sich mehrere Autotypen leisten können, sich keine Sorgen über einen Mangel an Ladestationen machen müssen, weil die meisten von ihnen ihre E-Fahrzeuge wahrscheinlich in ihren prächtigen Garagen aufladen, und im Allgemeinen auf diejenigen herabschauen, die weder die Mittel noch den Ehrgeiz haben, auf den E-Zug aufzuspringen.

Die abgehobenen Eliten, die wollen, dass wir alle unsere mit Benzin betriebenen Autos aufgeben, neigen auch dazu zu kontrollieren, wie der Rest von uns sein Leben lebt. Sie wollen, dass wir uns an ihre lächerlichen Verordnungen halten: Kauft diese Art von Auto. Benutze diese Art von Glühbirne. Esst diese Art von Essen. Ersetzen Sie Ihre Haushaltsgeräte durch das, was Sie unserer Meinung nach haben sollten. Ihre Vorliebe für Mikromanagement kennt keine Grenzen.

Ich denke, sie sind zu weit gegangen. Es ist eine Sache, darauf zu bestehen, dass jemand eine LED-Glühbirne anstelle einer Glühbirne verwendet. Im Großen und Ganzen ist das nur eine kleine Unannehmlichkeit. Es ist jedoch sehr bedenklich, wenn die Mächtigen verlangen, dass wir aufhören, mit Benzin betriebene Autos zu fahren und stattdessen unbewährte, teure und unzuverlässige Elektroautos benutzen.

Die amerikanische Autokultur ist einzigartig. Nach dem Zweiten Weltkrieg, mit dem Aufkommen der Vorstädte, setzten die Amerikaner ihr Auto mit Freiheit gleich. Die Massen waren nicht mehr auf öffentliche Verkehrsmittel angewiesen, um zur Arbeit, zum Einkaufen usw. zu gelangen. Das Aufkommen des benzinbetriebenen Autos veränderte den amerikanischen Lebensstil. Die Menschen konnten in den Vorstädten leben und in ihr Auto steigen, um überall dorthin zu gelangen, wo sie gebraucht wurden oder hinwollten. Diese Mentalität ist in den Vereinigten Staaten immer noch lebendig, zumal immer mehr Amerikaner aus den gefährlichen und verfallenden Städten in die Vororte und ländlichen Enklaven fliehen.

Machen Sie keine Illusionen, die Regierung Biden möchte, dass Sie ein Elektroauto wollen. Doch das Problem für Biden und seine Freunde von Big Government ist einfach: Die meisten Amerikaner wollen einfach kein Elektroauto kaufen. Und keine noch so große Menge an Propaganda, staatlichen Subventionen oder Überzeugungsarbeit scheint diese Tatsache ändern zu können.

Chris Talgo is editorial director at The Heartland Institute.

Link: https://www.americanthinker.com/blog/2024/06/americans_remain_sour_on_electric_vehicles.html

Übersetzt von Christian Freuer für das EIKE

 




Je mehr wir über Extremwetter erfahren, desto mehr wissen wir, wie wenig wir vorher wussten (und immer noch nicht wissen)

H. Sterling Burnett

Im Gegensatz zu vielen Klimawissenschaftlern und Redakteuren der Mainstream-Medien, die in ihrer Hybris behaupten, die Wissenschaft stehe fest, äußerte sich Albert Einstein bescheiden über sein Wissen und soll gesagt haben: „Je mehr ich lerne, desto mehr wird mir klar, wie viel ich nicht weiß.“
Eistein, in jeder Hinsicht ein Genie, war nicht der erste, der diese Weisheit zum Ausdruck brachte. Schon Sokrates soll vor fast 2.400 Jahren gesagt haben: „Die einzig wahre Weisheit besteht darin, zu wissen, dass man nichts weiß“, und Aristoteles äußerte sich ähnlich: „Die einzig wahre Weisheit besteht darin, zu wissen, dass man nichts weiß.“ Ich wünschte, die heutigen Klimaforscher würden eine solch vorsichtige, ehrliche Einschätzung des Wissensstandes in ihrem Bereich über die Ursachen und Folgen des gegenwärtigen Klimawandels abgeben – aber das tun sie selten.

Dennoch werden täglich Forschungsergebnisse veröffentlicht, die darauf hindeuten, dass weit mehr über den Klimawandel und das Ausmaß unbekannt ist, in welchem er extreme Wetterereignisse verursacht, als die Klimawissenschaftler und ihre journalistischen Speichellecker wissen und als in den Klimamodellen angenommen und eingebaut wird. Zwei aktuelle Studien zeigen dies beispielhaft.

Eine kürzlich in der Fachzeitschrift Geophysical Research Letters veröffentlichte Studie untersucht die Zusammenhänge zwischen der Aktivität tropischer Wirbelstürme (TC) in den atlantischen und pazifischen Wirbelsturmbecken und den mehrdekadischen Schwankungen der Meerestemperaturen, die mit den Verschiebungen der atlantischen multidekadischen Variabilität (AMV) zusammenhängen. Bei der Analyse zweier Klimamodell-Simulationen, bei denen AMV-Anomalien addiert und subtrahiert wurden, stellten die Forscher fest, dass der Atlantik und der Pazifik unterschiedlich auf warme AMV-Phasen reagieren, die zu höheren Temperaturen führen:

Im Vergleich zu negativen AMV-Anomalien gilt für die Warmphase der AMV:

Sie erzeugt viel häufiger Zyklone (einschließlich solcher, die auf das Festland übergreifen) über dem Nordatlantik. Dies liegt daran, dass AMV+ günstige Bedingungen für die Entwicklung dieser Stürme bietet, einschließlich höherer SST, höherer relativer Luftfeuchtigkeit, größerer relativer Wirbelstärke und schwächerer vertikaler Windscherung. Im Gegensatz dazu verursacht AMV+ im westlichen Nordpazifik und im Südpazifik aufgrund ungünstigerer Bedingungen für das Auftreten von Wirbelstürmen (stärkere vertikale Windscherung und weniger feuchte Luft) weniger häufig TCs. Die Kontraste in der TC-Umgebung sind auf die verstärkte zonale Strömung zwischen dem atlantischen und dem pazifischen Becken bei AMV+ zurückzuführen.

Was sie nicht als Faktor für die Stärke oder Bildung von Hurrikanen fanden, war der langfristige globale Klimawandel. Klimamodelle deuten vielmehr darauf hin, dass Verschiebungen in den Strömungsschwankungen des Atlantischen Ozeans der treibende Faktor für tropische Wirbelstürme sind – oder deren Ausbleiben. Diese Studie untermauert den jüngsten wissenschaftlichen Bericht AR6 des IPCC, in dem bestätigt wird, dass weder für die Anzahl noch für die Stärke der tropischen Wirbelstürme ein Trend festgestellt oder dem Klimawandel zugeschrieben werden kann. Die IPCC-Bewertung legt nahe, dass selbst unter den extremsten Emissionsszenarien keine Beweise dafür gefunden werden konnten, dass der Klimawandel tropische Wirbelstürme bis zum Jahr 2100 beeinflusst hat oder beeinflussen wird. (Siehe Grafik unten.)

Trotz der klaren Aussagen des IPCC und der Ergebnisse dieser neuen Forschungsarbeit würde ich Geld darauf wetten, dass die Mainstream-Medien in diesem Jahr melden werden, wenn sich Tropenstürme und Hurrikane bilden, vor allem, wenn der eine oder andere an Land geht und Schäden verursacht, dass der Klimawandel schuld sei, wobei sie „Studien“ von gefälschten Klimawissenschafts-Organisationen wie World Weather Attribution als Beweis für ihre Behauptung anführen.

Und natürlich sind Hurrikane nur eine Art von extremen Wetterereignissen, die wir erst allmählich verstehen und die daher zeigen, wie wenig wir über ihre Entstehung und Ursache wissen. Tornados sind eine weitere solche Art von Ereignissen.

Jedes Jahr versuchen einige Wissenschaftler und Berichterstatter in den Mainstream-Medien, den Klimawandel mit der Häufigkeit oder Stärke von Tornados in Verbindung zu bringen. Climate Realism hat solche Behauptungen bei Dutzenden von Gelegenheiten entlarvt und sich dabei auf Forschungsergebnisse berufen, die zeigen, dass es keinen Trend zur Zunahme der Anzahl oder Stärke von Wirbelstürmen gibt. Jetzt berichtet die UPI über den gleichen Tatbestand.

In einem kürzlich von UPI veröffentlichten Artikel wurde festgestellt, dass in den Vereinigten Staaten seit mehr als 11 Jahren kein EF5-Tornado aufgetreten ist, also „eines der katastrophalsten Wetterereignisse auf der Erde … [das] mehr als eine Meile breit werden und Winde von mehr als 200 mph erzeugen kann – stärker als jeder Hurrikan der Kategorie 5, der jemals über dem Atlantikbecken aufgezeichnet wurde“ – die längste EF5-freie Periode seit es beständige Aufzeichnungen gibt. Und das, obwohl in diesem Zeitraum von 13 Jahren Milliarden Tonnen zusätzliches Kohlendioxid in die Atmosphäre freigesetzt wurden. UPI schreibt zu diesem gesegneten Ausbleiben schwerer Tornados:

Am 20. Mai 2013 zerstörte ein extrem starker Tornado einen großen Teil von Moore, Okla. Elf Jahre später ist dies immer noch der jüngste Tornado, der als EF5 eingestuft wurde, die stärkste mögliche Einstufung auf der Enhanced Fujita Scale. Der Abstand von 11 Jahren ist der längste seit Beginn der offiziellen Aufzeichnungen in den USA im Jahr 1950.

Vor dem Tornado in Moore wurden im Jahr 2011 fünf Tornados der Kategorie EF5 bestätigt, darunter der EF5-Tornado in Joplin, Missouri, der 161 Menschen tötete. Seit Beginn der Aufzeichnungen in den Vereinigten Staaten im Jahr 1950 wurden insgesamt 50 Tornados mit F5/EF5 eingestuft.

Der Meteorologe Bob Henson sagte im Jahr 2023, dass die derzeitige EF5-„Dürre“ schwer zu erklären sei, da Schadensschätzungen subjektiv sein können. Schäden an einem „gut gebauten Gebäude“ sind der häufigste Faktor, der dem National Weather Service (NWS) hilft, einen EF5 zu bestätigen, doch viele Häuser in den USA erfüllen dieses Kriterium nicht.

Denken Sie in dieser hektischen Tornado-Saison daran, wie viele Berichte Sie bereits gelesen haben, in denen der Klimawandel als Faktor genannt wurde, der den Zeitpunkt, die Anzahl, das Verhalten und die Stärke der Tornados verändert. Denken Sie daran, dass es in den Mainstream-Medien keine Beweise dafür gibt, dass der Klimawandel einen Einfluss auf die Häufigkeit, das Verhalten und die Stärke von Tornados hat, haben wird oder haben kann, nicht einmal in Klimamodellen.

Quellen: No Tricks ZoneGeophysical Research Letters; UPI

Link: https://heartlanddailynews.com/2024/06/climate-change-weekly-508-on-extreme-weather-the-more-we-learn-the-more-we-know-how-little-we-knew-before-and-still-dont-know/

Übersetzt von Christian Freuer für das EIKE

 




Wissenschaftliche Integrität und amerikanische „Milliarden-Dollar-Katastrophen“

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Roger Pielke Jr. wendet sich seit langem gegen die betrügerische Desinformationskampagne zur „Milliarden-Dollar-Katastrophe“.

Jetzt ist er mit dieser von Fachleuten geprüften Arbeit einen Schritt weiter gegangen:

Abstract

Seit mehr als zwei Jahrzehnten veröffentlicht die U.S. National Oceanic and Atmospheric Administration (NOAA) eine Zählung der wetterbedingten Katastrophen in den Vereinigten Staaten, die nach ihren Schätzungen seit 1980 in jedem Kalenderjahr eine Milliarde Dollar (inflationsbereinigt) überschritten haben. Der Datensatz wird häufig zitiert und in der Forschung und Bewertung verwendet sowie zur Rechtfertigung politischer Maßnahmen in Bundesbehörden, im Kongress und vom US-Präsidenten herangezogen. In dieser Studie wird der Datensatz anhand von Verfahrens- und Inhaltskriterien bewertet, die in den Richtlinien der NOAA zur Informationsqualität und wissenschaftlichen Integrität festgelegt sind. Die Bewertung kommt zu dem Ergebnis, dass der Datensatz zur „Milliarden-Dollar-Katastrophe“ diese Kriterien nicht erfüllt. Daher sind die öffentlichen Behauptungen fehlerhaft und manchmal irreführend, die von der NOAA im Zusammenhang mit dem Datensatz und seiner Bedeutung aufgestellt werden. Insbesondere behauptet die NOAA fälschlicherweise, dass der Datensatz für einige Arten von extremen Wetterereignissen die Erkennung und Zuordnung von Veränderungen auf Klimazeitskalen demonstriert. Ähnlich fehlerhaft sind die Behauptungen der NOAA, dass die zunehmende Zahl der jährlichen Milliarden-Katastrophen zum Teil eine Folge des vom Menschen verursachten Klimawandels ist. Die Behauptungen der NOAA, sie habe eine Erkennung und Zuordnung erreicht, werden durch keine von ihr durchgeführte wissenschaftliche Analyse gestützt. Angesichts der Bedeutung und des Einflusses des Datensatzes in Wissenschaft und Politik sollte die NOAA schnell handeln, um diesen Mangel an wissenschaftlicher Integrität zu beheben.

https://www.nature.com/articles/s44304-024-00011-0

Roger hat auch einen erläuternden Beitrag geschrieben, und zwar hier.

Link: https://wattsupwiththat.com/2024/06/07/scientific-integrity-and-u-s-billion-dollar-disasters-roger-pielke/

————————————

Der erwähnte „erläuternde Beitrag“ folgt hier:

Wissenschaftliche Integrität und amerikanische „Milliarden-Dollar-Katastrophen“ – Eine wichtige Gelegenheit zur Selbstkorrektur in Klimawissenschaft und -politik

Roger Pielke Jr.

Soeben hat Natural Hazards, ein Journal im Rahmen der Gruppe um Nature, offiziell meine neue Studie veröffentlicht mit dem Titel: „Scientific integrity and U.S. “Billion Dollar Disasters“.

Diese Studie zeigt – meines Erachtens unwiderlegbar – dass die „Milliarden-Dollar-Katastrophe“-Tabelle der National Oceanic and Atmospheric Administration (NOAA) nicht den Standards der Behörde für Informationsqualität und wissenschaftliche Integrität entspricht. [1]

Aus Gründen, die ich in dieser Studie ausführlich beschreibe, eignet sich die „Milliarden-Dollar-Katastrophe“-Tabelle nicht als „Datenbank“ (in Anführungszeichen – es handelt sich nicht um Daten nach irgendeinem Standard) für die Erkennung und Zuordnung von Trends bei extremen Wetterereignissen. Ebenso wenig ist die Tabelle geeignet, um die Auswirkungen von Klimaänderungen oder -schwankungen auf die Kosten von Katastrophen zu ermitteln. Der Datensatz wurde in der Wissenschaft, in den Medien und in der Politik weithin missbraucht.

Es handelt sich, mit einem Wort, um Falschinformationen. [2]

Die Studie beginnt folgendermaßen:

Ende der 1990er Jahre begann die U.S. National Oceanic and Atmospheric Administration (NOAA) mit der Veröffentlichung einer Auflistung von Wetter- und Klimakatastrophen, die jeweils einen Schaden von mehr als 1 Milliarde Dollar verursachten, und stellte fest, dass die Zeitreihe „zu einer unserer beliebtesten Webseiten“ [1] geworden war. Ursprünglich wurden die Daten in US-Dollar des laufenden Jahres angegeben. Nach Kritik, dass der Datensatz irreführend sei, änderte die NOAA im Jahr 2011 ihre Verfahren und passte die historischen Schäden unter Berücksichtigung der Inflation an konstante Jahreswerte an.

Bis 2023 war die Zeitreihe zu den Milliarden-Dollar-Katastrophen zu einer festen Größe in der Öffentlichkeitsarbeit der NOAA geworden, wurde vom US Global Change Research Program (USGCRP) der US-Regierung als Klimawandel-Indikator hervorgehoben und als Beleg für eine Kernaussage des Fünften Nationalen Klimagutachtens der USA angeführt, die besagt, dass „Extremereignisse häufiger und schwerer werden“. Die Zeitreihe wird in der Politik häufig als Beweis für die Auswirkungen des vom Menschen verursachten Klimawandels angeführt, der zu einer Zunahme der Häufigkeit und Intensität extremer Wetterereignisse und damit verbundener wirtschaftlicher Schäden führt, unter anderem in Bundesbehörden, im Kongress und vom US-Präsidenten. Zusätzlich zu den häufigen Zitaten in politischen Begründungen wurde der milliardenschwere Datensatz der NOAA laut Google Scholar in fast 1000 Artikeln zitiert (Stand März 2024).

Die Auflistung der „Milliarden-Dollar-Katastrophe“ der NOAA begann als eine einfache, aber clevere Methode, die NOAA zu vermarkten und die Aufmerksamkeit von Reportern mit einem klickstarken Artikel zu erregen. Irgendwann wurde die „Milliarden-Dollar-Katastrophe“-Liste irgendwie in „Daten“ umgewandelt, die in der von Fachleuten begutachteten Forschung verwendet werden und ein offizieller Indikator für den vom Menschen verursachten Klimawandel sind, der von der Nationalen Klimabewertung der USA vorgestellt wird. Auch werden sie von der Regierung von Präsident Joe Biden herangezogen, um eine breite Palette von Vorschriften und politischen Maßnahmen zu rechtfertigen.

Es ist eine bemerkenswerte Geschichte darüber, wie die Wissenschaft vom Weg abkommen kann und wie Fehlinformationen im Verborgenen existieren können, genau wie des Kaisers neue Kleider.

Hier folgen einige Beispiele für solche offensichtlichen Fehlinformationen, die ich in meiner Studie anführe:

– Der für die Überwachung des Datensatzes zuständige NOAA-Beamte behauptete, der Datensatz zeige: „Der Klimawandel verstärkt viele dieser Extreme, die zu milliardenschweren Katastrophen führen können.“

– Auf der Pressekonferenz, auf der der Datensatz für 2022 veröffentlicht wurde, behauptete der NOAA-Administrator, dass der Datensatz zeige, dass „der Klimawandel mehr und intensivere Extremereignisse hervorruft, die erhebliche Schäden verursachen.“

– Im Jahr 2021 bezeichnete das US-Finanzministerium zunehmende Milliardenkatastrophen als Beweis für die Auswirkungen des Klimawandels auf finanzielle Risiken.

– Die Fünfte Nationale Klimabewertung der USA zitierte den NOAA-Datensatz als Beweis dafür, dass „der Klimawandel nicht nur ein Problem für künftige Generationen ist, sondern ein Problem von heute“, und behauptete, der Datensatz zeige „die zunehmende Häufigkeit und Schwere von Extremereignissen“, die zum Teil auf den „vom Menschen verursachten Klimawandel“ zurückzuführen seien.

– Im Jahr 2023 führte Präsident Biden die wetter- und klimabedingten Katastrophenkosten in den USA im Jahr 2022 auf den Klimawandel zurück und zitierte dabei den NOAA-Datensatz: „Mit dem Klimawandel zusammenhängende extreme Wetterereignisse stellen nach wie vor eine sich rasch verschärfende Bedrohung dar – eine Bedrohung, die die USA jedes Jahr mindestens 150 Milliarden Dollar kostet … In diesem Jahr wurde ein Rekord für die Zahl der Klimakatastrophen aufgestellt, welche die Vereinigten Staaten mehr als eine Milliarde Dollar kosteten. In den Vereinigten Staaten ereignet sich jetzt im Durchschnitt etwa alle drei Wochen eine Katastrophe im Wert von einer Milliarde Dollar, während dies in den 1980er Jahren nur alle vier Monate der Fall war.“

Das Versagen des Datensatzes „Milliarden-Dollar-Katastrophe“ ist ein öffentlichkeitswirksamer Test für die NOAA – und die breitere wissenschaftliche Gemeinschaft, die großen Medien und die Biden-Administration – den Kurs zu korrigieren, wenn die Wissenschaft vom Weg abkommt. Ich schließe diese Studie mit einigen spezifischen Empfehlungen:

Es würde den Rahmen dieser Studie sprengen, die Gründe dafür zu nennen, warum der milliardenschwere Katastrophendatensatz der NOAA so stark von den eigenen Standards der Behörde für wissenschaftliche Integrität abgewichen ist. Die notwendigen Schritte, um den Datensatz wieder in Übereinstimmung mit den Informationsqualitätskriterien der NOAA zu bringen, sind jedoch einfach:

– Veröffentlichung aller Daten, einschließlich aller Versionen des Datensatzes;

– Dokumentation und Veröffentlichung der Schätzungen der Basisverluste und ihrer Herkunft;

– Klare Beschreibung aller Verfahren, die zur Anpassung der Basisdaten verwendet werden;

– Dokumentation jeder am Datensatz vorgenommenen Änderung, eindeutige Benennung jeder nachfolgenden Version des Datensatzes und Veröffentlichung aller Versionen der Daten;

– Aufbewahrung aller historischen Versionen des Datensatzes in einem öffentlich zugänglichen Archiv;

– die Verfahren und Ergebnisse jährlich einem Peer-Review durch von der NOAA unabhängige Experten, einschließlich Wirtschaftswissenschaftlern und anderen Fachleuten, unterziehen. Die Peer-Review-Berichte müssen veröffentlicht werden;

– Angleichung der NOAA-Praktiken an die Richtlinien der US-Bundesregierung zur Verbreitung statistischer Informationen, die auch für andere Behörden gelten;

– Angleichung der Behauptungen an die Verfahren und Standards des IPCC für alle Behauptungen zur Erkennung und Zuordnung oder Begründung, warum die Behauptungen im Widerspruch zu denen des IPCC stehen.

Ich habe 16 Jahre lang in einem kooperativen NOAA-Institut an der Universität von Colorado Boulder gearbeitet. Ich habe viele Freunde, Kollegen und Mitarbeiter in der Behörde. Die NOAA leistet hervorragende Arbeit – sowohl in der Forschung als auch im Betrieb – und trägt jede Minute eines jeden Tages positiv dazu bei, die Nation sicherer zu machen und ihre Wirtschaft zu fördern. Das macht die Versäumnisse der Behörde bei den „Milliarden-Dollar-Katastrophen“ so bemerkenswert und beunruhigend.

Ich beende diese Studie mit folgenden Worten:

Die NOAA ist eine äußerst wichtige Behörde, die an der Schnittstelle zwischen Wissenschaft, Politik und Politik angesiedelt ist. Sie kann auf eine lange und bemerkenswerte Geschichte bei der Bereitstellung von Wetter-, Klima-, Wasser-, Meeres- und anderen Daten für die Nation zurückblicken. Diese Daten haben unzählige Leben gerettet, die Wirtschaft unterstützt und bedeutende wissenschaftliche Forschung ermöglicht. Die Behörde ist viel zu wichtig, um zuzulassen, dass die in dieser Studie dokumentierten Defizite bei der wissenschaftlichen Integrität fortbestehen. Glücklicherweise korrigieren sich sowohl die Wissenschaft als auch die Politik selbst.

Ich werde genau beobachten, wie die NOAA auf diese neue Studie reagiert, wie (und ob) die Medien angesichts dieser neuen, von Fachleuten begutachteten Analyse weiterhin für die „Milliarden-Dollar-Katastrophe“ werben und welche Art von Selbstkorrektur bei den politischen Entscheidungsträgern stattfinden könnte, die den Datensatz zur Rechtfertigung bestimmter politischer Maßnahmen verwendet haben. [3]

Sie können diese Studie hier vollständig lesen und eine erweiterte PDF-Datei hier abrufen – alles Open Access.

Link: https://rogerpielkejr.substack.com/p/scientific-integrity-and-us-billion

Übersetzt von Christian Freuer für das EIKE

 




Eine lange Liste von Fehlprognosen – Eisbären und arktisches Eis

Cap Allon

Einführung des Übersetzers: Dieser Beitrag besteht aus zwei Teilen, die aber eng zusammen gehören. Einmal geht es um die Eisbären, dann um das arktische Meereis. Dieses wird ja gerne mit dem Schicksal der Polarbären verknüpft. Dass die Alarmisten – wie könnte es anders sein – in beiden Punkten völlig falsch liegen, wird hier dokumentiert. – Ende Einführung

Daten aus dem Jahr 2024 zeigen, dass die Eisbären in Spitzbergen dicker und zahlreicher sind

Jüngste Daten des Norwegischen Polarinstituts zeigen, dass die männlichen Eisbären in Spitzbergen im Jahr 2024 dicker und zahlreicher sind als im Jahr 1993. Trotz eines leichten Rückgangs des Meereises in dieser Zeit sind die Jungtierzahlen hoch geblieben.

Frühjahrsuntersuchungen zeigen, dass die Bären auf Spitzbergen ihren Körperzustand seit den 1990er Jahren beibehalten oder sogar verbessert haben. Dies entspricht dem allgemeinen Trend. In den 1960er Jahren schätzte man die weltweite Eisbärenpopulation auf 5.000 bis 10.000 Tiere, während die Zählung heute eine Zahl von über 30.000 ergibt.

Die wichtigsten Ergebnisse des Berichtes des Norwegischen Polarinstituts

1) Männliche Eisbären sind im Jahr 2024 dicker als im Jahr 1993.
2) Die Eisbärenpopulationen in Spitzbergen sind heute größer als 1993.
3) Die Anzahl der Würfe neuer Eisbärenjungen bleibt hoch.
4) Etwas weniger Meereis ist mit einer besseren Gesundheit der Eisbären einhergegangen.
5) Die Meereismenge auf Spitzbergen liegt seit September 2023 über dem Durchschnitt.

Meereisverhältnisse und der Gesundheitszustand von Bären

Der größte Teil des Meereises um Spitzbergen ist bewegliches Packeis, was es sehr variabel macht. Entgegen den Erwartungen der AGW-Partei hat sich das Eis auf Spitzbergen seit September letzten Jahres über dem Durchschnitt gehalten. Obwohl im Frühwinter ein kurzzeitiger Rückgang zu verzeichnen war, sind die Werte im Frühjahr wieder überdurchschnittlich hoch, wie aus den Daten des Norwegischen Eisdienstes hervorgeht, und stehen damit im Gegensatz zu den Berichten des Mainstream.

Trotz erheblicher Schwankungen des Meereises im Laufe der Jahre und eines leichten Gesamtrückgangs seit den 1990er Jahren hat sich die körperliche Verfassung der männlichen Eisbären verbessert, was vermutlich auf die bessere Verfügbarkeit von Beute zurückzuführen ist (Crockford, 2023; Frey et al., 2022).

Die Eisbärenexpertin Dr. Susan Crockford, die einen Doktortitel in Zoologie besitzt erklärt, dass die weltweite Zunahme der Eisbärenpopulation wahrscheinlich auf die erhöhte Verfügbarkeit von Robben zurückzuführen ist, die unter den Bedingungen des reduzierten Meereises im Sommer gedeihen.

Diesen Tatbestand haben die Aktivisten-Reporter von The Guardian immer noch nicht mitbekommen:

Auch heute noch wird das Aussterben der Eisbären prognostiziert, wobei eine lange Tradition der Leugnung wissenschaftlicher Erkenntnisse fortgesetzt wird:

2005: Der US Geological Survey sagte voraus, dass zwei Drittel der weltweiten Eisbären bis 2050 aufgrund des schwindenden Meereises ausgestorben sein könnten.

2007: Dr. Steven Amstrup, ein führender Eisbärenforscher, prognostizierte einen signifikanten Rückgang der Populationen bis zur Mitte des Jahrhunderts, wobei er einen dramatischen Rückgang bereits für das Jahr 2020 vorhersagte.

2008: Die International Union for Conservation of Nature (IUCN) sagte voraus, dass die Eisbärenpopulationen in den nächsten 35-50 Jahren aufgrund des Klimawandels um mehr als 30 % zurückgehen würden.

2008: Al Gore warnte, dass die Eisbären aufgrund schmelzender Eiskappen vom Aussterben bedroht seien, was einen starken Rückgang bis 2013 implizierte.

2009: In einem WWF-Bericht wird prognostiziert, dass die Eisbären innerhalb von 50 Jahren aussterben könnten, wenn die derzeitigen Erwärmungstrends anhalten.

2011: Es wurde vorausgesagt, dass die Eisbärenpopulationen in der Hudson Bay aufgrund des früheren Aufbrechens des Meereises und des späteren Zufrierens drastisch zurückgehen würden.

2013: In einem Bericht hieß es, dass die Eisbären in der südlichen Beaufortsee aufgrund längerer eisfreier Perioden bis 2025 einen erheblichen Bestandsrückgang verzeichnen würden.

Steigender Trend beim Meereis

Jüngste Beobachtungen deuten darauf hin, dass das Meereis in der Region Spitzbergen zunimmt, was im Widerspruch zu Meldungen über einen anhaltenden Rückgang steht.

In diesem Jahr hat sich das Eis innerhalb des Standardbereichs gehalten und im April fast einen Rekordwert erreicht:

Weitere Informationen im vollständigen Bericht des Norwegischen Polarinstituts und bei polarbearscience.com von Dr. Susan Crockford.

Eisfreie Arktis bis 2022“

„Die Wahrscheinlichkeit, dass es nach 2022 noch dauerhaftes Eis in der Arktis geben wird, ist gleich Null“, sagt James Anderson, Professor für Atmosphärenchemie.

Im Jahr 2018 prophezeite der Harvard-Professor James Anderson, ein Atmosphärenchemiker, dem die Entdeckung des antarktischen Ozonlochs zugeschrieben wird, dass die Arktis bis 2022 eisfrei sein wird, wenn die Nutzung fossiler Brennstoffe nicht drastisch eingeschränkt wird.

In diesem Jahr scheint sich der Wachstumstrend der letzten zehn Jahre jedoch fortzusetzen. Die Daten des NSIDC zeigen, dass die Eisausdehnung im Mai 2024 bei 12,78 Millionen Quadratkilometern lag, was auf eine beträchtliche Eisbedeckung hinweist, die über dem 30-jährigen Durchschnitt liegt.

Andersons Fehlprognose unterstreicht die Gefahren, die entstehen, wenn man alarmistischen Erzählungen Glauben schenkt und Klimatrends blindlings in die Zukunft extrapoliert. Die Schwankungen der jährlichen Meereisausdehnung reflektieren die des Erdklimas im Allgemeinen, und es ist erwiesenermaßen unmöglich, das Abschmelzen von Gletscher X bis zum Datum X vorherzusagen. Solche Vorhersagen sind oft politisches Rätselraten (d.h. Unsinn). Sie sind lächerlich.

Jüngste Erholungstendenzen widersprechen dem Narrativ einer unmittelbar bevorstehenden eisfreien Arktis, sie entlarven Andersons Vorhersage für das arktische Meereis im Jahr 2018 – ein Fehlschlag, der die Bedeutung ausgewogener, datengestützter wissenschaftlicher Analysen gegenüber alarmistischer Rhetorik unterstreicht.

Andersons Scheitern ist kein Einzelfall:

2007: Al Gore prophezeite, dass die Arktis bis 2013 eisfrei sein würde.

2008: James Hansen, der „Klimaprophet“ der NASA, sagte voraus, dass die Arktis bis 2018 im Sommer eisfrei sein würde.

2009: Peter Wadhams, Professor für Meeresphysik an der Universität Cambridge, prophezeite, dass die Arktis bis 2015 eisfrei sein werde.

2012: Wieslaw Maslowski, Forscher an der Naval Postgraduate School, prophezeite eine eisfreie Arktis bis 2016.

2000: David Viner, ein leitender Wissenschaftler an der Climatic Research Unit der University of East Anglia, sagte, dass Schneefall im Winter innerhalb weniger Jahre „ein sehr seltenes und aufregendes Ereignis“ werden würde und dass „Kinder einfach nicht mehr wissen werden, was Schnee ist“.

2007: Jay Zwally, ein NASA-Klimawissenschaftler, prophezeite, dass die Arktis bis 2012 am Ende des Sommers nahezu eisfrei sein könnte.

2008: James Lovelock, ein für die Gaia-Hypothese bekannter Wissenschaftler, prophezeite, dass die Arktis bis 2020 eisfrei sein würde.

2009: Auf einer Tagung der American Geophysical Union prophezeiten Wissenschaftler, dass die Arktis bis 2013 eisfrei sein wird.

2013: Paul Beckwith, Klimawissenschaftler an der Universität von Ottawa, prophezeite, dass die Arktis bis 2015-2016 eisfrei sein könnte.

2008: Mark Serreze, Direktor des National Snow and Ice Data Center, prognostizierte eine eisfreie Arktis im Sommer bis 2030. (Wir drücken dir die Daumen, Mark!).

Diese wiederholten Ungenauigkeiten machen deutlich, wie schwierig es ist, komplexe Klimaphänomene zu prognostizieren, und unterstreichen die Notwendigkeit einer nuancierten Forschung anstelle grundlegender Extrapolationen, die sich auf noch nie dagewesene Ereignisse und die Verfälschung der Physik stützen.

In Anbetracht der finanziellen Mittel ist dies nicht sehr wahrscheinlich.

Die Unkenrufe gehen weiter. An Prophezeiungen, dass die Arktis eisfrei sein wird, gibt es auch aktuell keinen Mangel:

2024: Michel Tsamados, University College London, prophezeite im April, dass die Arktis bis 2030 im Sommer eisfrei sein könnte.

2023: Yeon-Hee Kim, Climate Change Research Lab, sagt ebenfalls voraus, dass der Arktische Ozean in den 2030er Jahren im Sommer eisfrei sein könnte.

2023: Ge Peng, Earth System Science Center/NASA, geht davon aus, dass die Arktis unter verschiedenen Emissionsszenarien bis 2030 im Sommer im Wesentlichen eisfrei sein wird.

2023: Forscher der Pohang University of Science & Technology sagen einen Zehn-Jahres-Countdown für eine eisfreie Arktis voraus, der bis zum Jahr 2033 andauert.

2023: Forscher der University of Colorado Boulder prophezeiten, dass die Arktis bis 2030 eisfreie Sommertage erleben könnte, wobei die Region im Sommer möglicherweise einen Monat oder länger eisfrei sein könnte.

2022: Forscher der NOAA und des North Carolina Institute for Climate Studies prognostizierten, dass bei mittleren Emissionsszenarien ein eisfreier arktischer Sommer bis 2042 eintreten könnte, während dies bei hohen Emissionsszenarien bis 2034 der Fall sein könnte.

2022: Forscher von Climate Communications weisen darauf hin, dass die Arktis bis 2030 im Sommer eisfrei sein könnte.

2022: Forscher des ESA-Klimabüros fanden heraus, dass der Arktische Ozean in den Sommern vor 2050 nahezu frei von Meereis sein wird, selbst wenn die Treibhausgasemissionen erheblich reduziert werden.

Link: https://electroverse.substack.com/p/2024-data-show-Spitzbergen-polar-bears?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Warum Primärenergie immer noch König ist

von Dr. Lars Schernikau, Autor von „Unbequeme Wahrheiten… über Strom und die Energie der Zukunft“ (hier bestellbar)

Viele Ingenieure oder Menschen mit einer Ausbildung oder Tätigkeit im Energiebereich argumentieren immer wieder, dass die Elektrifizierung von Heizung, Verkehr und Industrie die Energieeffizienz erhöhen und damit den Primärenergieverbrauch senken wird. So prognostiziert die IEA in ihrem „Netto-Null-Pfad“ eine Verringerung des Primärenergieverbrauchs um 10 % bis 2030 und sogar noch mehr bis 2050, und das trotz Bevölkerungswachstum und steigendem Lebensstandard, wobei der Energieverbrauch pro Kopf im schnell wachsenden „globalen Süden“ logischerweise zunimmt.

Geht man von einem Bevölkerungswachstum von 25% und einem Pro-Kopf-Energiezuwachs von 20% aus, so wäre ein Anstieg der Primärenergie um etwa 50% bis zum Jahr 2050 realistischer (Abbildung 1). Damit läge die Welt im Jahr 2050 im Durchschnitt etwa auf dem Niveau des heutigen Chinas, weit hinter Europa oder den USA, und es würde dabei davon ausgegangen, dass die Netto-Energieeffizienz bei der „Produktion“ und dem „Konsum“ von Energie von heute bis 2050 in etwa unverändert bliebe. Warum die Annahme einer konstanten Primärenergieeffizienz von einigen und auch mir infrage gestellt wird, versuche ich hier zu erklären.

Abbildung 1: Primärenergie bis heute und Projektion bis 2050. Quellen: Schernikau basierend auf Our World in Data nach Vaclav Smil 2017 und Energy Institute Statistical Review of World Energy 2023, (link)

Elektromotoren sind effizienter als Verbrennungsmotoren, Wärmepumpen sind effizienter als Öl- oder Gasbrenner. Die Nutzung von Strom zur Erzeugung von Industriewärme ist effizienter als die Verbrennung fossiler Brennstoffe. Dies sind nur einige der Argumente, die wir regelmäßig hören, auch für Wasserstoff. Und hier scheint der Beweis erbracht: Der Primärenergieverbrauch in Deutschland ist in den 20 Jahren der „Energiewende“ um etwa 20% gesunken, während sich der Lebensstandard, die Bevölkerung und der Stromverbrauch weniger verändert haben (Abbildung 2).

Es ist richtig, dass ein Elektromotor effizienter ist als ein Verbrennungsmotor, warum sonst würden unsere modernen Züge elektrisch und nicht mehr mit Dieselmotoren fahren? Es ist auch richtig, dass der „Transport“ von Energie von einem Ort zum anderen, um die Temperatur um 1 °C zu erhöhen (z. B. vom Boden zu Ihrer elektrischen Heizung mithilfe eines Wärmetauschers), im Durchschnitt nur etwa ein Drittel der benötigten Energie im Vergleich zur Verbrennung von Öl oder Gas verbraucht.

Ich weiß nicht genug über Industriewärme, um mich dazu zu äußern, also lasse ich das für heute aus.Für meine Argumentation hier macht es allerdings auch keinen Unterschied. Die Herstellung und Verwendung von Wasserstoff als Energieträger ist sicherlich NICHT energieeffizient, das steht hoffentlich außer Frage.

Warum führen die oben genannten energiewirtschaftlichen Fakten über Elektromotoren und Wärmepumpen nicht zu einem geringeren Primärenergieverbrauch, sondern ganz im Gegenteil? Warum gibt es ein grundlegendes Missverständnis darüber, wie viel Primärenergie benötigt wird, um unser Leben zu führen, ob elektrisch oder nicht? Gehen wir der Sache auf den Grund.

Abbildung 2: Installierte Kraftwerksleistung in Deutschland, Stromerzeugung, Primärenergie. Quellen: Schernikau auf Basis von Fraunhofer, Agora, AG Energiebilanzen. Siehe auch www.unpopular-truth.com/graphs.

1. Was ist Primärenergie?

Primärenergie ist die in der Natur vorkommende „rohe, unverarbeitete Energie“, die wir ihr entnehmen

(Lars Schernikau)

Diskussionen über die Verwendung des Primärenergiemaßstabs sind aufgekommen, da „erneuerbare Energien“ wie Wind und Sonne einen größeren Anteil an der Elektrizität, jedoch einen geringeren Anteil an der Primärenergie ausmachen, wie Sie in Abbildung 2 und 3 sehen können. Einige Ökonomen halten die Primärenergie für veraltet und irreführend, weil sie der Ansicht sind, dass „Primärenergie“ aus Sonne und Wind mit geringen Energieverlusten in nutzbaren Strom umgewandelt werden kann.

Für diese wichtige Diskussion stellen wir klar, dass weltweit ca. 70.000 TWh Primärenergie für die Stromerzeugung verwendet werden (etwa 40 % der Primärenergie), was ca. 30.000 TWh nutzbarem Strom entspricht (Abbildung 3). Die Differenz ergibt sich größtenteils aus der thermischen Umwandlung bzw. dem (Un-)Wirkungsgrad von konventionellen Brennstoffen in Elektrizität in Wärmekraftwerken. Der Rest geht somit in Form von Wärme an die Umwelt „verloren“.

In Wikipedia heißt es meines Erachtens richtig: „Primärenergie (PE) ist die in der Natur vorkommende Energie, die noch keinem von Menschen durchgeführten Umwandlungsprozess unterzogen wurde. Sie umfasst die in Rohstoffen enthaltene Energie und andere Energieformen, einschließlich Abfälle, die einem System zugeführt werden. Primärenergie kann nicht-erneuerbar oder erneuerbar sein.“

Um die Sache noch weiter zu verwirren, gibt es verschiedene Methoden zur Berechnung der Primärenergie: die Methode der teilweisen Substitution und die Methode des physikalischen Energiegehalts (siehe Our World In Data oder IEA FAQ), aber auch dieser Aspekt ist für diese Diskussion hier nicht relevant.

Warum also mache ich so ein Aufheben darum und bezweifle, dass eine „elektrische Welt“, die auf Wind und Sonne (Formen von Primärenergie) basiert, weniger Gesamtprimärenergie benötigen würde, als die IEA und viele andere behaupten?

Erstens behaupte ich, dass die Art und Weise, wie die Primärenergie für jedes einzelne Land berechnet wird, zumindest irreführend ist, weil sie die außerhalb des Landes verbrauchte Primärenergie außer Acht lässt! Deshalb sieht man in Deutschland einen – unzutreffenden – Rückgang des Primärenergieverbrauchs.

Zweitens behaupte ich, dass die Art und Weise, wie Wind- und Solarenergie in den Energiestatistiken auftauchen, nämlich mit geringen Energieverlusten oder mit geringen Auswirkungen auf die Primärenergie, irreführend, wenn nicht gar falsch ist. Die Standardinterpretation der veröffentlichten Elektrizitäts- und Primärenergiedaten, d.h. Wind und Sonne seien primärenergieeffizienter, ist einfach nicht mit der Physik und der Energiewirtschaft vereinbar.

Abbildung 3: Die „Nutzung“ der globalen Primärenergie und ihr Vergleich mit der Elektrizität. Quellen: Schernikau auf der Grundlage von IEA, Energy Institute (ex BP), Our World in Data. Siehe auch www.unpopular-truth.com/graphs.

2. Primärenergie aus „abgebauten Bodenschätzen“ vs. Primärenergie aus Sonne und Wind

Für diese Diskussion lasse ich Wasserkraft und Biomasse außen vor. Wasserkraft ist natürlich begrenzt, Biomasse hat ganz andere ökonomische und Umweltauswirkungen, auf die ich hier aufgrund der Zeit und Artikellänge nicht eingehen kann. Ich konzentriere mich auf:

a) die so genannte „nicht erneuerbare“ Energie aus den „abgebauten Brennstoffen“ Öl, Kohle, Gas und Uran, die fast 90 % der Primärenergie und etwa 70 % der Elektrizität ausmacht, und

b) die so genannte „erneuerbare“ Energie aus Sonne und Wind, die angeblich etwa 5 % der Primärenergie und 12 % der Elektrizität ausmacht (Abbildung 3).

Um es gleich vorwegzunehmen: Öl, Kohle, Gas und Uran sind „abgebaute Energierohstoffe“, die wir aus dem Boden gewinnen, und logischerweise gibt es eine Grenze für das, was Mutter Erde zur Verfügung hat. Bitte akzeptieren Sie, dass wir über diesen Punkt jetzt nicht streiten müssen. Auf der Grundlage unseres heutigen Wissens und der Tatsache, dass wir ständig neue Ressourcen finden, sehe ich für die nächsten paar hundert Jahre kein Problem. Wenn Sie über 50 Jahre alt sind, erinnern Sie sich noch daran, was man Ihnen in der Grundschule darüber erzählt hat, wie lange das Öl noch reicht? Vergleichen Sie diese Zahl mit heute.

Damit will ich keineswegs sagen, dass wir uns keine Sorgen über die Erschöpfung von Rohstoffen machen sollten. Eine solche Erschöpfung führt zu höheren Kosten und logischerweise zu größeren Auswirkungen auf die Umwelt, da es schwieriger wird, die Ressourcen zu „finden“ und „abzubauen“. Dies lässt sich im Alltag der Kraftstoffgewinnung beobachten. Außerdem sind und bleiben die geförderten Energierohstoffe begrenzt. Wie relevant dies für unser Leben ist, hängt von der gesamten (ich behaupte, weitgehend noch unbekannten) Ressourcenbasis und unserer jährlichen Entnahme ab.

Der derzeitige Energiegehalt der gesamten (heute bekannten) Ressourcen an konventionellen Energierohstoffen beläuft sich auf etwa 150 Mio. TWh gegenüber etwa 160.000 TWh jährlicher Förderung (BGR 2023). Wenn sich diese Zahlen nicht ändern und wirklich nur 150 Mio. TWh konventionelle Brennstoffe im Boden vorhanden sind, und wenn wir sie ökonomisch abbauen könnten, bleiben uns bei den derzeitigen Förderraten noch etwa 900 Jahre „geförderte Energierohstoffe“, bevor die Lichter ausgehen. Ich verstehe, dass das sehr viel zu sein scheint, mehr als Sie vielleicht dachten, aber ich lade Sie ein, die Zahlen zu prüfen. Ich spreche von Ressourcen, nicht Reserven.

Die Primärenergie von Energierohstoffen wie Öl, Kohle oder Gas wird durch ihre „inhärente“ Energie oder ihren Heizwert oder Verbrennungswert gemessen, normalerweise in kcal/kg oder btu oder etwas Ähnlichem. Diese in den „geförderten Energierohstoffen“ enthaltene Primärenergie ist in der Natur „frei“ verfügbar, erfordert aber einen beträchtlichen Aufwand

a) dem Boden entnommen, aufbereitet und transportiert zu werden, und

b) durch Verbrennung in nutzbaren, wertvollen Strom „umgewandelt“ zu werden. Alles führt zu einem „Energieverlust“, da die Entropie jedes Mal zunimmt, wenn wir Energie nutzen oder speichern.

Was die so genannte „erneuerbare“ Energie aus Sonne und Wind betrifft, würde ich in der Tat zustimmen, dass wir „fast“ unbegrenzte Energie aus der Sonne und vielleicht etwas begrenztere Energie aus dem Wind haben. Die Windkraft als globale Energiequelle wird auf 45 bis 100 TW geschätzt (Adams und Keith 2013). Dem stehen weniger als 9 TW der derzeit weltweit installierten Kapazität aller Arten von Strom gegenüber, also ist alles gut? Vielleicht nicht!

Wir wissen, dass auch hier der 1. Hauptsatz der Thermodynamik gilt: Energie geht nie verloren, sie wird nur von einer Form in eine andere „verschoben“ oder „übertragen“. Wenn wir also Wind aus der Luft „nehmen“, um ihn in Strom umzuwandeln, verlangsamen wir natürlich die Windgeschwindigkeit. Diese Windgeschwindigkeiten werden mit der Zeit wieder „aufgefüllt“, und die Energierückgewinnungsrate ERR für Wind besagt, dass etwa 1 bis maximal 2 MW/km² für die „erneuerbare“ Nutzung durch den Menschen zur Verfügung stehen, andernfalls hört der Wind auf zu wehen (Smith und Schernikau 2023 für weitere Einzelheiten und Quellen von Dritten). Heute wird vielfach viel „dichter“ gebaut, auch hier mit Konsequenzen. Diese geringe „Leistungsdichte“ des Windes hat, wie Sie sehen werden, eine primärenergetische Konsequenz. Wenn wir von „Energieverlusten“ sprechen, „verlieren“ wir natürlich keine Energie, sondern wandeln lediglich die ursprünglich „nützliche“ Energie in „nutzlose“ Energie aufgrund stetig steigender Entropie um. Diese Wärmenergie erwärmtie schließlich die Welt um uns herum.

Die Leistungsdichte der Sonne pro m² ist ebenfalls von Natur aus begrenzt, nicht nur durch a) die Länge der Nächte oder die Bewölkung, sondern auch b) durch die Sonneneinstrahlung oder die „Kraft der Sonne, die auf Ihren Kopf scheint“. Es macht einen Unterschied, ob Sie mittags in Arizona oder in Nordkanada in der hellen Hochsommersonne stehen. Auch diese geringe Leistungsdichte von etwa 5.000 bis 10.000 kWh pro installiertem kW pro Jahr in Deutschland im Vergleich zu Arizona (Global Solar Atlas) hat eine direkte Auswirkung auf die Primärenergie.

Sie werden nun hoffentlich zustimmen, dass es Energie, Rohstoffe, Land und Geld bedarf, um a) die „freie“ Energie aus der Natur zu gewinnen, ob sie nun „erneuerbar“ ist oder nicht, und b) die „gewonnene Energie“ für den Endverbraucher in Form einer verbrauchbaren kWh oder Wärme nutzbar zu machen.

Dies ist für die Energiediskussion von grundlegender Bedeutung:

Während die Primärenergie für uns kostenlos ist (abgebaut oder „erneuerbar“), müssen wir immer Energie, Rohstoffe, Land und Geld aufwenden, um (a) diese Energie zu gewinnen und (b) sie für die Endnutzung zu verarbeiten.

3. Benötigte Primärenergie, um Wind und Sonne nutzbar zu machen

Es mag Sie überraschen, dass bei der Berechnung der Primärenergie in Deutschland davon ausgegangen wird, dass nahezu 100% des aus Sonne oder Wind „geernteten“ oder gewonnenen Stroms in nutzbaren Strom für den Verbraucher umgewandelt wird. So tauchen in Deutschland im Jahr 2022 fast 200 TWh Primärenergie aus Wind und Sonne als etwa 190 TWh verbrauchbarer Strom in der Statistik auf (AGEB Jahresbericht, S. 43). Bei der Kernenergie entsprechen 105 TWh Primärenergie aus Kernenergie etwa 35 TWh verbrauchtem Strom.

Erkennen Sie den Trugschluss? Hatten wir uns nicht gerade im vorherigen Abschnitt darauf „geeinigt“, dass wir die Energie einbeziehen müssen, um a) die Energie aus der Natur zu gewinnen und b) die „gewonnene Energie“ für die Endnutzung durch den Verbraucher nutzbar zu machen? Eigenartigerweise haben wir b) im Gasbeispiel mit einbezogen, aber weder a) noch b) im Sonnen- oder Windbeispiel. Was ist hier falsch gelaufen?

a) Energie zur Gewinnung der Energie aus der Natur: Bleiben wir bei Solar und Gas in Deutschland, um den Punkt zu illustrieren. Die benötigte Primärenergie, um Solarenergie aus der Natur zu gewinnen, finden Sie größtenteils in den Statistiken Chinas wieder. 80-90% der Wertschöpfungskette für Solarmodule ist in oder um China angesiedelt. Die Wärme und der Strom, die für die Herstellung von Polysilizium, Glas, Aluminium, Kupfer, Chemikalien und Stahl für die Montagekonstruktion benötigt werden, basieren größtenteils auf Kohle und werden ebenfalls größtenteils, aber nicht nur, in den Statistiken Chinas ausgewiesen. Ich habe einen ganzen Blogeintrag zu diesem Thema verfasst (Coal’s importance for Solar panel manufacturing; in deutscher Übersetzung hier) und eine neue, noch unveröffentlichte wissenschaftliche Arbeit ist in Arbeit (Mariutti und Schernikau 2024).

Das Gleiche gilt natürlich für den Bau eines Gaskraftwerks, auch dieser Aufwand muss berücksichtigt werden (was in Deutschland derzeit nicht der Fall ist). Das Gas selbst ist in der deutschen Statistik aber einkalkuliert. Sie werden es vielleicht ahnen, dass die geringe Energiedichte von Solarenergie (und Windkraft) bedeutet, dass viel mehr Land für Solarenergie benötigt wird, aber auch, dass viel mehr Tonnen an Rohstoffen und damit Energie benötigt werden, um die installierte Kapazität von Solar- oder Windenergie im Vergleich zu Gas, Kohle oder Kernkraft bereitzustellen (Abbildung 4).

Abbildung 4: Ausgewählte Materialien, die je nach Stromerzeugungstechnologie benötigt werden. Quelle: Schernikau auf der Grundlage von Daten des Department of Energy DOE, USA. Siehe auch www.unpopular-truth.com/graphs.

b) Energie, um die „gewonnene Energie“ für die Nutzung durch den Verbraucher nutzbar zu machen: Die Energie, um die Solarenergie für den Endverbrauch wirklich „nutzbar“ zu machen, ist eine weitere, komplexere Frage, die sich von der des Gases unterscheidet, da man bei Gas den Wirkungsgrad des Kraftwerks „einfach“ schätzen könnte, um eine grobe Zahl zu erhalten.

Man darf jedoch nicht vergessen, dass Strom aus Sonnenkollektoren für den „normalen“ Gebrauch im Stromnetz einen geringeren Wert hat, da er unstetig, unzuverlässig und somit unvorhersehbar ist, zumindest auf Versorgungsebene. Um eine kWh aus Sonnenenergie im Stromnetz wirklich nutzbar zu machen, sind zusätzliche Anlagen erforderlich (alle im Vergleich zu einem einzigen Gaskraftwerk):

  1. Ein großer Überbau von Solarmodulen, um niedrige natürliche Kapazitätsfaktoren auszugleichen (10 bis 11% in Deutschland, 25 % in Kalifornien) + Überbauung, um Speicher zu „laden“ + Überbauung, um Energie-„Verluste“ zu berücksichtigen, die nicht nur für die Speicherung, sondern auch für die Aufbereitung, den Ausgleich und die Übertragung erforderlich sind.

  2. Kurzzeit-Energiespeicherung (z.B. Batterien?) zum Ausgleich kurzfristiger Tagesschwankungen.

  3. Langfristige Energiespeicherung (z.B. Wasserstoff?) zur Überbrückung von Tagen oder sogar Wochen ohne „nutzbare“ Sonneneinstrahlung, auch saisonale Speicherung genannt.

  4. Ein thermisches Kraftwerk in Bereitschaft für schlechte Zeiten, zumindest derzeit in den Plänen Deutschlands enthalten.

  5. Eine viel komplexere und größere Netzintegration und Übertragungsinfrastruktur, um den Solarstrom in das Netz zu integrieren.

Mir ist zwar klar, dass nicht immer alle 5 Punkte erforderlich sind, aber im Versorgungsbereich oder im Netzbereich sind sie oft erforderlich und werden eingeplant. Diese 5 Punkte werden umso wichtiger, je mehr Wind- und Sonnenenergie im System vorhanden ist.

Müsste man also nicht die Primärenergie mit einbeziehen, die für alle oben genannten 5 Punkte benötigt wird, um die gewonnene Sonnenenergie für den Endverbraucher „nutzbar“ zu machen? Wären die Zahlen dann nicht vergleichbar mit denen eines Gas- oder Kohlekraftwerks? Wir nennen solche „nutzbare“ Energie „abschaltbare“ Energie oder „feste“ Energie, d.h. Energie, die bei Bedarf zur Verfügung steht, und nicht nur dann, wenn die Natur sie bereitstellen kann.

Gas-, Kohle- und größtenteils auch Kernkraftwerke benötigen diese 5 Systeme nicht, da sie von Natur aus weitgehend regelbar sind (weniger bei der Standard-Kernkraft, aber die Grundlast der Kernkraft hat eine ganz andere Qualität und einen anderen Wert als intermittierender Wind- und Solarstrom). Es gibt genügend energiewirtschaftliche Literatur, die auch beweist, dass jede zusätzliche kWh Solar- oder Windenergie ab einem bestimmten, relativ geringen Durchdringungsgrad weniger Wert hat als die vorherige (z.B. Hirth 2013). Somit steigen die Gesamtkosten für Strom mit jedem zusätzlichen Solarpanel oder Windrad im System.

Die benötigte Primärenergie, um die gewonnene Solarenergie wirklich nutzbar zu machen, wird sicherlich in keiner Statistik eines einzelnen Landes erfasst, wohl aber in dem Land, in dem all diese Anlagen hergestellt oder produziert werden. Auch die graue Energie (embodied energy) für alle benötigten Rohstoffe und Materialien müsste mit einbezogen werden und wird irgendwo auf der Welt erfasst, aber nicht in Deutschland. (man denke an Eisenerz, Kalkstein für Zement, Kupfererz, Lithiumerz, Nickelerz, Bauxit, Rohöl und vieles mehr).

Das bedeutet, dass die Primärenergie, die Wind und Solarstrom zugerechnet wird zu gering ausgewiesen ist und logischerweise damit die Primärenergie, die nutzbarer Kohle-, Gas-, oder Ölenergie zugerechnet wird zu hoch ist.

4. Und nun?

Fassen wir zusammen. Wir wissen, dass der Anteil der Sonnen- und Windenergie an der Primärenergie derzeit stark unterschätzt wird, da davon ausgegangen wird, dass fast 100 % der primären Sonnen- und Windenergie in nutzbaren Strom umgewandelt werden. Die wahren Energie- und Rohstoffauswirkungen von Wind und Sonne sind in der Kohle-, Öl- und Gas-Primärenergie „versteckt“, die benötigt wird, um a) die Sonnen- und Windenergie zu gewinnen und b) den erzeugten Strom für den Verbraucher wirklich nutzbar zu machen. Die gleiche „Falschaussage“ gilt auch für genutzte Energie aus Kohle, Gas oder Öl. Jedoch sinddie Auswirkungen wesentlich geringer, da der Brennstoffverbrauch bedeutender ist als die Investitionsgüter und der zusätzliche Bedarf für Überbauung, Speicherung und Übertragung entweder nicht vorhanden oder viel geringer ist (man erinnere sich an die Liste der 5 Systeme). Außerdem ist die Leistungs- oder Energiedichte pro m² bei konventionellen Brennstoffen viel höher, so dass weitaus weniger Ausrüstung erforderlich ist, um der Anforderung gerecht zu werden.

Jede Windturbine und jedes Solarmodul bringen also eine Menge Ballast mit sich, der in den Statistiken nicht ausgewiesen wird. Auf globaler Ebene werden Sie sehen, wie die Primärenergie mit mehr Wind- und Solarenergie wächst. Tatsächlich ist die Netto-Energieeffizienz (eROI) von Wind- und Solarenergie unter Berücksichtigung des gesamten Systems, um den Strom wirklich nutzbar zu machen, viel niedriger als die von Kohle, Gas oder Kernkraft. Daher kann man davon ausgehen, dass die Primärenergie mit zunehmender Wind- und Solardurchdringung schneller steigt. Dies wird durch den „wahren EROI des Gesamtsystems“ diktiert, der bei Wind- und Solarenergie niedriger ist als bei konventionellen Energiesystemen. Auch hier arbeiten wir an einer akademischen Grundlagenstudie, die dies zeigt. Einen Top-Down-Blick gibt es hier bei Schernikau, Smith und Falcon 2022 „Full Cost of Electricity ‚FCOE‘ and Energy Returns ‚eROI‘“.

Zum Argument des Elektrofahrzeugs. Ja, ein Elektromotor ist effizienter als ein Verbrennungsmotor, wenn man ihn direkt ohne den ehrlichen Lebenszyklus vergleicht. Aber die Versorgung des Elektroautos mit Wind- und Sonnenenergie bedeutet, dass das Elektroauto all die oben genannten Nachteile mit sich bringt und der Vorteil des Elektromotors selbst „verloren“ geht (was bei einem mit Kohle, Gas oder Kernkraft betriebenen Elektrozug nicht der Fall ist). Hinzu kommt das Batterieproblem, die gesamte Primärenergie für die Herstellung der Batterie (die ein elektrischer Zug nicht benötigt), die – einmal hergestellt – immer noch aus dem Netz geladen werden muss. Daher werden Elektrofahrzeuge im großen Maßstab die Primärenergie nicht reduzieren. Elektrofahrzeuge können für bestimmte Anwendungen, wie z.B. den gewerblichen Kurzstreckenverkehr in oder um Städte, durchaus sinnvoll sein, aber ich habe diese Berechnungen nicht durchgeführt, daher ist dies nur eine Vermutung. Hier lassen wir aber die praktische Unverkäuflichkeit von E-Fahrzeugen aufgrund der geringen Lebensdauer der Batterie außer Acht.

Das Gleiche gilt nun auch für die Wärmepumpe. Jede Wärmepumpe benötigt Strom, was bei einer Gas- oder Ölheizung nicht der Fall ist, oder nur in sehr geringem Maße. Logischerweise, so wird uns gesagt, sollte der Strom „erneuerbar“ sein, also größtenteils aus Wind- oder Solaranlagen stammen. Die durch die Technologie der Wärmepumpe gewonnene Effizienz geht durch die Ineffizienz der Wind- und Solar- oder konventionellen Systeme verloren. Hinzu kommt das Problem, dass eine Wärmepumpe an Effizienz verliert, je kälter es wird (ihre Leistungszahl, COP, sinkt).

Im Winter, wenn wirklich geheizt werden muss, benötigen Sie also mehr Strom. Nicht nur, weil es kälter ist, sondern auch weil der Wirkungsgrad der Wärmepumpe sinkt. Denken Sie daran, dass der Winter die Zeit ist, in der die Sonnenenergie knapp ist. In dicht besiedelten Städten sind Wärmepumpen ohnehin ein Mythos. Wie dem auch sei, Wärmepumpen sind großartig. Unsere Familie nutzt sie seit Jahrzehnten wegen des Kostenvorteils und da Strom sicher verfügbar war, auch im Winter. Aber glauben Sie nicht, dass ein wind- und solarbetriebenes Wärmepumpensystem die Primärenergie reduziert, das tut es nicht!

Dass ein „wasserstoffbasiertes“ industrielles System NICHT primärenergieeffizient ist, sondern das genaue Gegenteil, liegt auf der Hand, sodass ich nicht dafür plädieren werde. Lassen Sie mich stattdessen einfach Osburg,, den Vorsitzenden von Thyssen Krupp Steel zitieren: Deutschland: „Die Umstellung auf Klimaneutralität [mit H2] wird den Strombedarf allein in unserem Duisburger Werk von 4,5 TWh auf 45 TWh verzehnfachen“.

Ein erheblicher Teil der Kohle-, Gas- und Öl-Primärenergie in der globalen Statistik muss dem Wind- und Solarstrom zugerechnet werden.

Diese Brennstoffe werden benötigt, um a) die Wind- und Solarenergie zu gewinnen und b) die Wind- und Solarenergie durch Hilfssysteme wie z. B. Speicherung/Backup und Netzintegration oder -übertragung wirklich nutzbar zu machen.

5. Zusammenfassung

Wir haben nun festgestellt, was die Primärenergieprobleme sind und warum es ein Fehler ist, anzunehmen, dass eine elektrische Welt, die weitgehend, aber nicht nur auf Wind- und Solarenergie basiert, global gesehen zu weniger Primärenergie führen wird. Parallel dazu haben wir logischerweise auch einen Teil der Gründe erläutert, warum Wind- und Solarenergie die teuerste und am wenigsten energie- und rohstoffeffiziente Art der „nützlichen“ Stromerzeugung ist.

Denken Sie daran, dass diese Aussage nicht politisch ist und uns nicht daran hindert, alles in unserer Macht Stehende zu tun, um die Umweltauswirkungen unserer Energiesysteme zu minimieren. Die Aussage beruht einfach auf physikalischen und tatsächlichen Gegebenheiten und lässt sich leicht am Beispiel Deutschlands veranschaulichen.

Die wahren finanziellen Kosten der sogenannten „Energiewende“ übersteigen – wegen all der erforderlichen Hilfssysteme – bei weitem alle bisherigen Schätzungen. Würden Wind- und Solarenergie Energie sparen, eine kostengünstige Lösung darstellen und wirklich zu 100 % effizient sein, dann hätten wir natürlich keinen Streit und Deutschland hätte nicht die höchsten Strompreise aller Industrienationen. Die deutsche Wirtschaft würde mit kostengünstiger und zuverlässiger Energie florieren, aber nichts davon ist der Fall (Bloomberg Feb 2024: Germany’s Days as an Industrial Superpower Are Coming to an End).

Das wichtigste Ergebnis für heute ist somit, dass die globale Primärenergie aus drei Gründen zunehmen und nicht abnehmen wird:

  1. Zunahme der Bevölkerung,

  2. Anstieg des Pro-Kopf-Energieverbrauchs, da der „globale Süden“ aufholt, und

  3. Rückgang der „Primärenergieeffizienz“ zur Stromerzeugung, solange der Anteil von Wind- und Sonnenenergie im Netzsystem steigt

Ich stimme zu und verstehe voll und ganz, dass es auch Verbesserungen bei der „Primärenergieeffizienz“ durch Technologie und Innovation geben wird. Die großen Verbesserungen konzentrieren sich jedoch auf den „Energieverbrauch“. Das Jevons-Paradoxon besagt, dass neue Energienutzungen Effizienzverbesserungen ausgleichen. Man denke nur an die aufkommende künstliche Intelligenz, Rechenzentren, Raumfahrt, terrestrische Reisen und vieles mehr. Der springende Punkt ist hier die Verringerung der Primärenergieeffizienz bei der „Energieerzeugung“.

Mein Vorschlag lautet nach wie vor: INVESTIEREN wir in konventionelle Energiesysteme statt aus diesen AUSZUSTEIGEN, um die wirtschaftliche und ökologische Produktivität weiter zu verbessern und einen wirklich positiven Unterschied für die wachsende Bevölkerung zu machen, indem Sie erschwingliche und zuverlässige Energie mit den geringsten Umweltauswirkungen bereitstellen. Parallel dazu müssen wir mehr in Forschung und Entwicklung investieren, um langfristig die Abhängigkeit von unzureichender „fossiler“ Energie zu reduzieren und diese mit energieeffizienteren Formen ersetzen zu können.

Logischerweise bleibt „Net Zero anything“ bestenfalls Wunschdenken.

Mehr Details zu den o.g. Themen können sie im Buch des Autors Unbequeme Wahrheiten… über Strom und die Energie der Zukunftnachlesen und hier bestellen.

Link: https://unpopular-truth.com/2024/05/24/why-primary-energy-is-still-king/

Übersetzt von Christian Freuer für das EIKE

Hinweis: Diese Übersetzung ist vom Autor begutachtet worden.