Energiepolitik der Westlichen Welt: Geleitet von einem Ozean der Ignoranz

Terry Etam, BOE REPORT

Vor ein paar Jahren diskutierte ich mit einem Bekannten über die Auswirkungen der Dürre auf einige kanadische Anbaugebiete. Der Mann hatte keinerlei landwirtschaftliche Erfahrung, was nicht sonderlich ungewöhnlich ist, ebenso wie die oft damit einhergehende unzusammenhängende Sicht auf die Dinge, wie sie wirklich funktionieren. Nachdem er eine Minute lang über die Verwüstung der Ernte nachgedacht hatte, fragte er: „Könnte man nicht einfach einen Bewässerungsschlauch benutzen?“

Der Mann war kein besonders großer Idiot; er war einfach nur isoliert und hatte keine Ahnung, wie unpraktisch und unplausibel diese Idee war. Wenn man ihn nicht gerade mit dem Hubschrauber in die Mitte eines 640 Hektar großen Feldes fliegt, ist es schwer, die Realität der Situation angemessen zu beschreiben.

Wir alle können uns in die Lage dieser Person versetzen, wenn wir eine Lösung für etwas wagen, von dem wir keine Ahnung haben. Wenn ein Chirurg auf ein verfahrenstechnisches Problem bei der Arbeit hinweist, bezweifle ich stark, dass meine Vorschläge für „Wissen-ohne-Kettensägen-sind-Wunder-Werkzeuge“ eine große Hilfe wären.

Das ist nur eine Kuriosität des menschlichen Diskurses und selten mehr als eine Belustigung. Aber nicht in der Energiewelt. Die Gartenschlauch-Denker haben sich ihren Weg an den Entscheidungstisch gebahnt.

Im Januar schickte eine Gruppe von 400 „Wissenschaftlern, Akademikern und Modellierern von Energiesystemen“ einen Brief an die Bundeskabinettsminister Freeland, Wilkinson und Guilbealt (klingt nach einer furchteinflößenden Anwaltskanzlei), in dem sie die [kanadische] Bundesregierung aufforderten, keine Steuergutschrift für die Kohlenstoffabscheidung und -speicherung zu gewähren, wenn dieses Verfahren zur Verbesserung der Erdölförderung (CCUS) eingesetzt wird.

Das ist eine merkwürdige Haltung, denn ein Grundprinzip der Technik (und des gesunden Menschenverstandes) besagt, dass Effizienzgewinne mit doppeltem Verwendungszweck die am niedrigsten hängenden Früchte sind, die es gibt. Da die Welt ohnehin das ganze Öl verbrennen wird, ist es absolut sinnvoll, dort anzusetzen und diese Infrastruktur zu nutzen, wo immer es möglich ist.

Nicht jedoch für die 400 Personen, die sich selbst für besser geeignet halten, das Problem zu lösen. (Unter den Unterzeichnern, von denen wir technische Ratschläge annehmen sollten, befinden sich Dutzende von Politikern; Dutzende von Soziologen; Professoren für Filmwissenschaft, Asienwissenschaft, Religionswissenschaft, Geschichte, Rechnungswesen, Englisch, Kunstgeschichte, Philosophie … so ziemlich jede sozialwissenschaftliche Disziplin, die man sich vorstellen kann). Sie alle haben sich als Experten für CCUS bezeichnet. Sie alle sagen der Regierung gemeinsam: „Hören Sie nicht auf den Lockvogel, ein Wasserschlauch wird schon reichen.“

Nehmen wir eine ihrer Beschwerden: „Der Aufbau der CCUS-Infrastruktur würde ein riesiges System von Pipelines zum Transport des Kohlenstoffs erfordern.“ Dies ist einer der wenigen Punkte, die sie in ihrem Geflecht aus umständlichen und unsinnigen Peer-Reviews nicht anführen, weil diese Welt für sie nicht existiert. Kohlenwasserstoffe werden in Zukunft einfach aus der Gleichung gestrichen. Die Gruppe fordert die Bundesbehörden auf, stattdessen „eine verstärkte Elektrifizierung, eine weitreichende Nutzung erneuerbarer Energien und eine Steigerung der Energieeffizienz“ anzustreben.

Gegen eine Steigerung der Energieeffizienz ist nichts einzuwenden, aber wie sieht es mit dem Ersatz von Kohlenwasserstoffen durch den groß angelegten Einsatz erneuerbarer Energien aus (ihre Ersatzlogik, nicht meine)? Wie bei den Landwirten wird auch hier mit dem Gartenschlauch argumentiert, aber lassen Sie uns hören, was andere, die sich für Funktionalität interessieren, zu sagen haben.

Die IEA, die unter bestimmten Umständen immer noch nicht in der Lage ist, bestimmte Wahrheiten zu vermeiden, wies letztes Jahr in einem Bericht darauf hin, dass die Beibehaltung eines globalen Temperaturanstiegs von unter 2 Grad bis 2040 eine Vervierfachung des Mineralienbedarfs bzw. der neuen Minen und das Erreichen des Netto-Null-Zustands bis 2050 eine Versechsfachung bedeuten würde.

Falls das lächerlich klingt, dann deshalb, weil es so ist und nicht passieren wird. Einem anderen Artikel von Ingenieuren zufolge würde eine vollständige Energiewende „nicht nur die bestehenden und geplanten Produktionskapazitäten [für Kupfer, Nickel, Graphit, Lithium und andere], sondern auch die bekannten weltweiten Reserven dieser Mineralien übersteigen“.

Und das ist der theoretische Teil. Hier ist der tatsächliche Blick aus der Praxis: Unabhängig von den Reserven wird es immer schwieriger, sie abzubauen.

Vor ein paar Wochen sagte der Direktor des Bergbaugiganten Freeport-McMoRan in einer Telefonkonferenz zum Jahresende: „Wir stellen eine zunehmende Verknappung des Angebots fest, während die Nachfrage so stark steigt. Es gibt eine begrenzte Anzahl von Projekten, die seit einiger Zeit entwickelt werden… darüber hinaus ist es schwierig, umsetzbare Projekte zu finden, die innerhalb eines sehr kurzen Zeitraums entwickelt werden können… es gibt weltweit zunehmende politische Risiken, die sich auf die Entwicklung des Kupferangebots auswirken werden. Vor allem in Chile und Peru, wo 40 % des weltweiten Kupfers herkommen, gibt es neue Präsidenten, deren Agenda auf Sozialprogramme ausgerichtet ist… Sie sehen dies in Ländern wie den Vereinigten Staaten, Sie sehen andere Länder, die die Entwicklung neuer Angebote aus sozialen Gründen einschränken… von Asien über Mittelamerika bis nach Afrika. All diese Dinge führen zu Lieferengpässen.“

Als Referenz – und das war für mich als Bergbau-Laie hilfreich – hat die jüngste Mine von F-M in Indonesien, für die das Unternehmen vor 20 Jahren mit den Investitionen begonnen hat, mehr als 350 Meilen Tunnel, sieben Meilen unterirdische Gleise zur Beschickung riesiger Brecher und fünf Meilen Förderbänder. Deshalb dauert es 20 Jahre, bis die Minen in Betrieb genommen werden können, und diese Zeitspanne wird sich noch verlängern, da es aufgrund von Vorschriften immer schwieriger wird, sie überhaupt in Betrieb zu nehmen.

Es gibt natürlich keine Garantie dafür, dass Trudeau/Guilbealt/Wilkinson/Freeland auf die 400-köpfige Gruppe hören werden, aber es gibt keinen Grund zu der Annahme, dass sie es nicht tun werden. Die westlichen Staats- und Regierungschefs haben sich mit ideologischen Klonen umgeben, die für diese Aufgabe ungeeignet sind und denen es an jeglicher Erfahrung mit dem Betrieb eines Energiesystems fehlt.

Über das europäische Energiefiasko muss kaum noch diskutiert werden, und das Erstaunlichste daran ist, dass viele dieser gescheiterten Energiegeneräle auf die hohen Erdgaskosten als Grund für den beschleunigten Ausbau der erneuerbaren Energien verweisen. Das ist genau die gleiche Lösung wie der Typ, der vorschlug, Quadratkilometer große Felder mit einem oder zwei Gartenschläuchen zu bewässern.

Die Demenz reicht bis hierher. Biden sucht auf der ganzen Welt nach Erdgaslieferungen für Europa für den Fall, dass Russland in die Ukraine einmarschiert, während seine Günstlinge zu Hause alles tun, um die Kohlenwasserstoffindustrie zugunsten erneuerbarer Energien zu schwächen.

Es kursieren Gerüchte (auf der Grundlage von Diskussionspapieren der US-Regierung), wonach Bidens Regierung die Mineralölsteuersätze um 50 Prozent anheben will (ein Sprecher des Weißen Hauses spielte den Bericht herunter und bezeichnete die Erhöhung als „vorbereitende Entwurfssprache“).

Die USA sind heute einer der größten Erdgasexporteure der Welt (zumindest vorübergehend), eine Welt, die ohne Frage verzweifelt nach mehr Erdgas sucht, und Bidens neue Energieexperten scheinen zu glauben, dass die Erschwerung der Förderung eine logische Karte ist, die sie ausspielen können, während ihr Chef unter jedem Stein der Welt nach mehr Angebot sucht.

Die gefährliche, vom Kurs abweichende Denkweise, die vielen dieser Entscheidungen zugrunde liegt, besteht in dem auf grundlegender Unkenntnis beruhenden Glauben, dass sich die Energiewende schnell vollzieht. So gibt es Heerscharen von Menschen, die sich selbst zu „Energieexperten“ erklären, weil sie jeden Aspekt der erneuerbaren Energien in der Annahme studieren, dass dies die ganze Geschichte sein wird.

Es versteht sich von selbst, dass es Tausende von Start-up-Unternehmen gibt, die jede erdenkliche neue saubere Technologie ausprobieren, und einige werden funktionieren, aber die meisten bringen uns direkt zurück zum kritischen Problem des Mineralienmangels, wie ein Krater, der nicht umschifft werden kann.

Wie kann man einer Analyse vertrauen, die sich weigert, das derzeitige Kohlenwasserstoffsystem zu integrieren, das 80 Prozent des weltweiten Energiebedarfs deckt? Jeder vernünftige Plan würde damit als Grundlage beginnen und Dinge wie CCUS als relativ leicht zu erreichende Meilensteine einbeziehen (und ich habe auch keine Ahnung, ob CCUS in großem Maßstab wirtschaftlich ist; ich weiß nur, dass die „Dekarbonisierung“ sowohl in wirtschaftlicher Hinsicht als auch in Bezug auf den Lebensstandard unverschämt teuer sein wird; wenn sie also stattfinden soll, stimme ich für CCUS als so vernünftig wie möglich).

Darüber hinaus kann man trotz mehrerer Jahrzehnte und Billionen von Ausgaben leicht argumentieren, dass es bisher überhaupt keine Energiewende gibt – 80 Prozent des weltweiten Energiebedarfs wurden vor 30 Jahren durch Kohlenwasserstoffe gedeckt, und dieser Prozentsatz ist heute fast derselbe. Das ist nicht die Definition einer Energiewende – es ist das Bild eines immer größer werdenden Energieverbrauchskuchens, bei dem die Größe der einzelnen Stücke durch eine Zunahme des Durchmessers und nicht durch eine Zunahme der Proportionen zunimmt.

Es fühlt sich ein wenig seltsam an, auf solch offensichtliche Umstände hinzuweisen, wenn es jeden Tag offensichtlicher wird, dass die Welt nach mehr Kohlenwasserstoffen schreit und nicht nach weniger. Aber solange unsere Regierungen – und die Menschen, die sie wählen – weiterhin in ihrem La-La-Land leben, haben wir die Wahl, zu kapitulieren und sie das gesamte System in den Boden stampfen zu lassen, oder sie mit einem Gartenschlauch ins Weizenfeld zu führen und darauf zu warten, dass das Licht angeht.

Wie sind wir in einen solchen Energie-Sumpf geraten? Finden Sie heraus, wie es dazu kam und wie Sie da wieder herauskommen – holen Sie sich „The End of Fossil Fuel Insanity“[etwa: Das Ende des Wahnsinns der fossilen Brennstoffe] bei Amazon.ca, Indigo.ca, oder Amazon.com. Vielen Dank für die Unterstützung.

Link: https://wattsupwiththat.com/2022/02/12/an-ocean-of-ignorance-guides-western-energy-policy/

Übersetzt von Christian Freuer für das EIKE

 




Kernenergie: Der Osten führt, Europa fährt vor die Wand

Fred F. Mueller

In den letzten Jahrzehnten hat sich ein wenig beachteter, dafür aber umso wichtigerer Unterschied zwischen Asien und Europa herausgebildet: Die jeweilige Einstellung zum Klimawandel und zur Kernenergie. In ihrem Kreuzzug gegen die drohende „Klimakatastrophe“ konzentrieren sich die meisten europäischen Länder auf die Verringerung ihrer Kohlenstoffemissionen. Deutschland geht dabei vorneweg. Als erster Schritt werden hier die Kernkraftwerke vernichtet. Noch bevor dies abgeschlossen ist, werden auch schon die Kohlekraftwerke nach und nach stillgelegt. Das Endziel ist eine Netto-Null-Nation, die ausschließlich „erneuerbare“ Energien, vor allem Sonne und Wind, verwenden soll. Ein grüner Traum, der sich für die Bürger schon jetzt zunehmend in einen Albtraum verwandelt.

In krassem Gegensatz dazu haben es die weitaus pragmatischeren östlichen Länder vorgezogen, eher Lippenbekenntnisse abzugeben und sich um ihre Bevölkerung zu kümmern. Anstatt ihre Energieinfrastruktur lahmzulegen, entscheiden sie sich zunehmend für die Kernenergie. Immer mehr Länder verfügen bereits über Kernkraftwerke oder stehen kurz davor. Auf diesem Gebiet hat Russland eindeutig die Führung übernommen, gefolgt von China, Südkorea und Japan. Diese vier Länder haben jeweils eigene Nukleartechnologien entwickelt und damit begonnen, diese zu exportieren. Unter ihnen stechen zwei Giganten hervor: Russland als eindeutiger Weltmarktführer im Bereich des Exports von Kernkraftwerken sowie China, das noch recht neu auf dem Markt ist, aber über das Potenzial verfügt, sich hier schnell zu einem weiteren wichtigen Akteur zu entwickeln.

Russland

Russland hat im Bereich der nuklearen Hochtechnologie drei entscheidende Vorteile: Es fällt nicht auf den CO2-Klimaschwindel der großen Bosse der US-Finanzgiganten herein 2) und verfügt als einer der frühesten und größten Akteure im Bereich der Kernkraft und der Atomwaffenherstellung über eine große Nuklearindustrie. Diese meistert alle Stufen des nuklearen Kreislaufs wie Bergbau, Anreicherung und Brennstoffaufbereitung, Engineering, Maschinenbau und Energieerzeugungsanlagen bis hin zu nuklearen Dienstleistungen, Wartung, Brennstoff-Wiederaufbereitung und einem geschlossenen Brennstoffkreislauf.

Dritter Pluspunkt ist, dass das riesige Land über einen unglaublichen Reichtum an Bodenschätzen und natürlichen Ressourcen aller Art verfügt, darunter einige der weltweit größten Reserven an fossilen Brennstoffen. Russland ist ein Energie- und Rohstoffgigant ersten Ranges und hat diese Vorteile systematisch ausgebaut, um eine führende Rolle beim Energieexport – einschließlich des Exports von Kernkraftwerken – zu übernehmen.

Energiereichtum und technologischer Vorsprung

Hier zunächst ein Blick auf Russlands Energieressourcen, wie sie in einem 2021 aktualisierten Bericht der Internationalen Atomenergie-Organisation (IAEO)3) aufgeführt sind:

Bild 2. Kernkraftwerke in der Russischen Föderation. In 11 KKW`s laufen insgesamt 38 Reaktoren mit einer Gesamtkapazität von 30.3 GW (Grafik: IAEA 3))

Derzeit betreibt Russland 38 Reaktoren in 11 Kernkraftwerken, die 20,7 % zur Stromerzeugung beitragen. Den größten Beitrag leistet Erdgas, welches das Land jedoch lieber ins Ausland verkaufen würde, wo wesentlich höhere Preise erzielbar wären. Die aktuellen Planungen sehen daher bis 2030 einen Anteil der Kernenergie an der Stromversorgung von 25-30 % vor. Dieser soll bis 2050 auf 45-50 % und bis zum Ende des Jahrhunderts auf 70-80 % steigen. Die in Betrieb befindlichen Reaktoren reichen von älteren Modellen aus der Sowjetzeit über aktuelle Systeme der Generation III bis hin zu fortschrittlichen Konzepten wie „schnellen“ Reaktoren der Serie BN 600-800-1200. Eine weitere Generation „schneller“ Modelle, die mit Natrium und Blei-Wismut gekühlt werden, ist bereits in Planung. Ergänzt wird die Liste durch kleine modulare Reaktoren wie die im schwimmenden Kraftwerk „Akademik Lomonosov“. Die Lebensdauer der neuen Reaktormodelle beträgt in der Regel 60 Jahre. Ein beständiger Nachschub an gut ausgebildeten Fachleuten wird durch Ausbildungszentren und technische Hochschulen sichergestellt, die jährlich etwa 18.000 Techniker und Akademiker hervorbringen.

Bild 3. Darstellung eines älteren Planungskonzepts des Novovoronezh Kernkraftwerks II mit zwei VVER-1200/392M bzw. AES-2006-Reaktoren (Grafik: Rosenergoatom, Creative Commons Attribution 3.0 Unported license)

Eine überzeugende Bandbreite an Technologien und Dienstleistungen

Die Nuklearindustrie des Landes bietet ein Niveau an Qualifikationen, Technologien und Dienstleistungen wie kaum ein anderes Land. Dies gilt auch für das Preisniveau. In einer von der World Nuclear Association 4) zusammengestellten Übersicht werden Inlandspreise von 2050-2450 US-$/kW und eine Bauzeit von 54 Monaten genannt. Für den schnellen Reaktor BN 1200 wird ein Inlands-Energiepreis von 2,23 ct/kWh angegeben, während für Exportreaktoren vom Typ VVER länderabhängig meist 50-60 US-$ pro MWh genannt werden.

Die von Russland angebotenen Komplettpakete „von der Wiege bis zur Bahre“ sind vor allem für Länder der zweiten und dritten Welt sehr attraktiv, nicht zuletzt auch deshalb, weil zum Paket auch Rücknahme und Aufbereitung/Entsorgung abgebrannter Brennelemente gehören. Da alle Konstruktionsprojekte aktuellen internationalen Anforderungen sowie den Empfehlungen der IAEO entsprechen, gehen die Abnehmer kaum Risiken ein. Man vergleiche dies mit dem beklagenswerten Zustand der Nuklearbranchen in der westlichen Welt, wo Unternehmen wie Siemens, Areva oder Westinghouse mit erschreckenden Verzögerungen sowie Kostenüberschreitungen zu kämpfen haben. Kein Wunder also, dass die russische Atomenergiegesellschaft Rosatom auf dem ersten Platz bei der Zahl der gleichzeitig durchgeführten Projekte zum Bau von Kernreaktoren im Ausland steht (35 Blöcke in verschiedenen Realisierungsstadien). Im Jahr 2020 belief sich der Gesamtwert der Auslandsaufträge von Rosatom auf über 138 Milliarden US-Dollar.

Bild 4. Am 1. Januar 2022 ging der dritte Reaktor des Typs Hualong One (HPR 1000) mit einer Kapazität von 1161 MW als Einheit 6 der Fuqing Nuclear Power Plant der CNNC (China National Nuclear Corporation) ans Netz (Foto: CNNC)

Chinas Aufholjagd

Als künftig wahrscheinlich zweitstärkster Anbieter zeichnet sich China ab, obwohl das Land mit der Entwicklung seiner Nukleartechnik viel später begonnen hat und weder über den gleichen Erfahrungsschatz noch die gleiche Technologiebandbreite verfügt. Ungeachtet dieser Defizite hat das Land eine erstaunliche Lernkurve durchlaufen und in der Zwischenzeit eine Reihe moderner Reaktortypen wie den Hualong One, einen Druckwasserreaktor der III Generation, entwickelt und in Betrieb genommen. Nach einem ersten Auftrag aus Pakistan ist es China kürzlich gelungen, auch Argentinien von diesem Modell zu überzeugen. Weitere interessante Entwicklungen, darunter das erste kommerziell aktive gasgekühlte Hochtemperatur-Kernkraftwerk (Kugelhaufenreaktor PBR) 5) sowie ein kleiner modularer Reaktor, sind in der Pipeline. In Anbetracht der beeindruckenden Erfolgsbilanz chinesischer Maschinenbau- und Bauprojekte in vielen Ländern rund um den Globus werden die Chinesen auch in diesem Bereich wahrscheinlich bald fest Fuß fassen.

Bild 5. Kontrastprogramm. Für den Kampf gegen CO2-Emissionen schließt Deutschland seine letzten Kernreaktoren, um stattdessen Tausende Windenergieanlagen zu errichten (Foto: Gudrun Ponta))

Ein weltweit riesiger Markt

Die westlichen Länder einschließlich der USA müssen dagegen feststellen, dass ihre Politik der Behinderung des Rohstoffsektors, wozu auch die Förderung fossiler Brennstoffe zählt, dabei ist zu scheitern. Das „Liegenlassen im Boden“ dürfte zum Bumerang werden. Um ihre Wirtschaft anzukurbeln, Arbeitsplätze zu schaffen und ihre wachsende Bevölkerung zu ernähren, benötigen die Länder der Dritten Welt sowie die sich entwickelnden Nationen vor allem billige, zuverlässige Energie. Die „Netto-Null“-Kampagne, mit der im Westen den Rohstoffproduzenten der Geldhahn zugedreht wurde, hat schon jetzt zu einem dramatischen Anstieg der Preise sowohl für Energie als auch für Rohstoffe geführt. Die durch die Politik erzwungene künstliche Verknappung aufgrund der unterbliebenen Investitionen in die Erschließung neuer Vorkommen dürfte noch über Jahre anhalten. Infolgedessen beginnen Politiker überall auf der Welt, ihre Energieversorgungsstrategien neu zu überdenken. Für Länder, die eine zuverlässige Versorgung benötigen, sind „erneuerbare“ Energiequellen wie Solar- und Windenergie einfach keine Alternative. Deshalb zeichnet sich bereits jetzt bei der Kernenergie ein Nachfrageboom ab. Und dank der Grünen und der Gretas unserer Zeit befinden sich Russland und China auf diesem Markt in einer hervorragenden Ausgangsposition. Die Nachfrage wird so massiv sein, dass nur Länder mit einer großen, gut funktionierenden Industrie, ausreichender Finanzkraft und einem großen Potenzial an Fachkräften in der Lage sein werden, daran in vollem Umfang zu partizipieren. Kleinere Anbieter dürften schon allein von den geforderten Kapazitäten her überfordert werden. Allein schon Ausbildung und Training der benötigten Fachleute dauern mehr als ein Jahrzehnt. Selbst Frankreich als letzter verbliebener europäischer KKW-Anbieter dürfte von der künftigen Nachfrage bei weitem überfordert werden.

Einen Dammbruch in Richtung dieses Zukunftsszenarios dürften die jüngsten Entscheidungen in Frankreich einleiten. Obwohl das Land bereits über 56 Kernkraftwerke verfügt, hat Präsident Macron gerade beschlossen, den Bau von bis zu 14 weiteren Anlagen anzuordnen. Mit rund 65 Millionen Einwohnern hat die „Grande Nation“ etwas weniger als ein Prozent der Erdbevölkerung. Rechnet man dieses Verhältnis auf die ganze Welt hoch, ergibt sich bis 2050 ein Marktpotenzial von möglicherweise 1.500 Kernkraftwerken.

Bild 6. Nach langjährigem Rückgang sind die kombinierten Aktienkurse einer Auswahl kanadischer Uranminenfirmen seit etwa März 2020 deutlich im Aufwind (Grafik: Privat)

Wechseln „smart money“-Investoren ins Uranlager?

Angesichts dieser Entwicklungen und unter Einbeziehung der aktuellen politischen Spannungen rund um Russland und die Ukraine muss man sich fragen, wieso sich Russland durch Sanktionsdrohungen gegen seine Europa-Pipelines einschließlich Nordstream 2 beeindrucken lassen sollte. Am Öl- und Gasmarkt gibt es schließlich eine Menge Anbieter und damit Konkurrenten. Im Gegensatz dazu könnte kein europäisches Land im aufkommenden weltweiten Nukleargeschäft mit Russland oder China mithalten. Russland könnte möglicherweise sogar den Verlust seiner deutschen und selbst seiner europäischen Gaseinnahmen verschmerzen und sich künftig auf seine Nukleargeschäfte konzentrieren. Für Europa wären die Folgen eines Lieferstopps dagegen äußerst schmerzhaft.

Die Potenziale dieser sich abzeichnenden Renaissance der Kernenergie scheinen inzwischen die Aufmerksamkeit des einen oder anderen „smart money“-Investors erregt zu haben. Am Kapitalmarkt macht sich augenscheinlich eine gewisse Ernüchterung wegen der schlechten Wertentwicklung bei Technologiepapieren wie Tesla oder Facebook breit. Dies könnte ein Grund für die kombinierte Wertentwicklung einer Auswahl kanadischer Uranminen-Gesellschaften sein. Nach einem langjährigen Rückgang ist hier seit etwa März 2020 ein markanter Kursanstieg zu beobachten, Bild 6.

Fred F. Mueller

Quellen

1)https://commons.wikimedia.org/wiki.jpg

2)https://www.investing.com/news/stock-market-news/oil-and-gas-bankers-confront-their-own-energy-transition-275898

3)https://cnpp.iaea.org/countryprofiles/Russia/Russia.htm

4)https://www.world-nuclear.org/information-library/country-profiles/countries-o-s/russia-nuclear-power.asp

5)https://www.reuters.com/markets/commodities/china-puts-pioneering-pebble-bed-nuclear-reactor-into-operation-2021-12-20/

 




Null-Kohlenstoff-Pläne in Kalifornien: Beherrscht eigentlich irgendjemand hier grundlegende Arithmetik?

Francis Menton

Wie wir alle wissen, sind die Einwohner Kaliforniens und ihre gewählten Vertreter weitaus kultivierter und tugendhafter als der Rest von uns Bauerntrampeln, die wir in den anderen Teilen des Landes leben. Dies gilt insbesondere für den Bereich des Klimawandels, wo Kalifornien bei der Rettung des Planeten eine Vorreiterrolle spielt, indem es die gesamten Kohlenstoffemissionen aus seinem Stromsektor rasch eliminiert. Kaliforniens CO2-Emissionen machen etwa 1 % der weltweiten jährlichen Gesamtemissionen aus, und sein Stromsektor ist für etwa 15 % dieser Emissionen verantwortlich, so dass wir hier von etwa 0,15 % der weltweiten Emissionen sprechen – eine Menge, deren Beseitigung, wie man leicht sehen kann, das Weltklima rasch verändern wird.

2018 wurde in Kalifornien das Gesetz SB100 erlassen, das bis 2045 einen zu 100 % Kohlenstoff-emissionsfreien Stromsektor vorschreibt. Aber wie kommt man von hier nach dort? Diese Frage wurde schließlich im März dieses Jahres beantwortet, als die für die Erreichung dieses Ziels zuständigen kalifornischen Behörden (California Energy Commission, California Public Utilities Commission und California Air Resources Board) einen gemeinsamen Bericht und ein dazugehöriges zusammenfassendes Dokument veröffentlichten, in dem sie ihre Pläne darlegten. Die Pläne können über diesen Link abgerufen werden.

Die Pläne zeigen, dass die kalifornischen Regulierungsbehörden absolut keine Ahnung haben, was sie da tun. Vielleicht liege ich falsch. Ich lade alle Leser ein, mich zu überprüfen und zu sehen, ob ich etwas übersehe. Aber ich glaube das nicht. Entweder verstehen diese Leute die für diese Berechnungen verwendeten Grundeinheiten nicht, oder sie können nicht rechnen, oder beides. Bei der Hochrechnung der zusätzlichen Kosten liegen sie meiner Meinung nach um einen Faktor von 1000 oder mehr daneben.

Die in den Plänen gegebene Antwort auf die Frage, wie man zu einem emissionsfreien Elektrizitätssektor gelangen kann, besteht darin, viele, viele Solar- und Windkraftanlagen zu bauen. Natürlich funktionieren diese nicht immer, also muss man zunächst einmal weit mehr Kapazitäten bauen als der Spitzenverbrauch. Der Spitzenverbrauch in Kalifornien liegt derzeit bei etwa 40 GW, und es wird erwartet, dass dieser Wert mit der zunehmenden Elektrifizierung der Wirtschaft, z. B. der Automobile, erheblich steigt. Daher sehen die Pläne bis 2045 den Zubau von etwa 97,6 GW an Solarkapazität und 22,6 GW an Windkapazität vor, zusätzlich zu den 26,5 GW, die bereits vorhanden sind. (In den Plänen wird auch der Zubau von 0,1 GW an geothermischer Kapazität gefordert, aber das ist ein Rundungsfehler). Damit würde Kalifornien über eine Gesamtkapazität von 146,7 GW an Wind- und Solarenergie verfügen, was in etwa dem Dreifachen des Spitzenverbrauchs entsprechen würde, wenn man die zunehmende Elektrifizierung der Wirtschaft bis 2045 berücksichtigt.

Aber Solar- und Windenergie sind „intermittierend“, das heißt, sie liefern nicht unbedingt dann Strom, wenn man ihn braucht. Was machen wir mit der Stromversorgung in völlig windstillen Nächten, wenn Solar- und Windenergie nichts liefern? Die kalifornischen Regulierungsbehörden haben darauf eine Antwort, nämlich „Speicherung“. Und wie viel Speicher werden wir brauchen? Sie geben eine sehr konkrete Zahl an: 52,8 GW. Das mag auf den ersten Blick sinnvoll erscheinen. Wenn der Spitzenverbrauch im Jahr 2045 bei etwa 50 GW liegt, dann dürften 52,8 GW Speicher gerade ausreichen, um mit einer sehr geringen Marge ausreichend Strom zu liefern, um die Nachfrage zu befriedigen, wenn die Sonnen- und Windenergie komplett ausfällt.

Und wie viel wird das alles kosten? Wir werden die gesamte derzeitige Stromerzeugung aus fossilen Brennstoffen durch Wind- und Solaranlagen ersetzen und zusätzlich genügend Speicher einbauen, damit das Ganze funktioniert. Hier ist die Rechnung:

Die Modellierungsergebnisse zeigen, dass das Erreichen von 100 Prozent sauberem Strom die jährlichen Gesamtkosten des Stromsystems bis 2045 um fast 4,6 Milliarden Dollar erhöhen wird. Das sind 6 Prozent mehr als die Kosten, die sich aus dem Renewables Portfolio Standard des Bundesstaates ergeben, der bis Ende 2030 einen Anteil von mindestens 60 Prozent sauberer Elektrizität vorsieht.

Im Grunde ist das Kleingeld. Immerhin beweisen die „Modellierungsergebnisse“ das.

Aber übersehen wir vielleicht etwas? Hier ist ein Teil, der meiner Meinung nach mehr als nur ein wenig bedeutsam ist: Alle Diskussionen in den Plänen über den Speicherbedarf und die Speicherkapazität werden in Einheiten von Gigawatt (GW) ausgedrückt. Nun kann die GW-Kapazität in diesem Zusammenhang durchaus von Bedeutung sein, denn die Sicherstellung, dass die Energie aus diesen riesigen Batterien schnell genug geliefert werden kann, um Nachfragespitzen zu decken, ist definitiv eine wichtige technische Herausforderung. Ein anderes Thema sind die Gigawattstunden (GWH), d. h. die Frage, ob die gesamte im System gespeicherte Energiemenge ausreicht, um einen möglichst langen Zeitraum zu überbrücken, in dem die Nachfrage das Angebot übersteigt. Wie sieht es aus, wenn es ganze Jahreszeiten gibt – wie z. B. den „Winter“ – in denen die Tage kurz sind, die Bewölkung hoch ist, der Wind längere Flauten hat und die Batterien wochen- oder sogar monatelang entladen werden könnten? Wie viel GWH an Speicherkapazität werden Sie benötigen, um dieses reine Wind- und Solarsystem zu unterstützen, und wie viel wird das kosten?

Ich kann in diesen Plänen nichts zu diesem Thema finden. Können Sie es finden?

Im Jahr 2018 hat ein Mann namens Roger Andrews eine solche Berechnung angestellt und sie auf der Website Energy Matters veröffentlicht. Ich habe das Thema in einem Beitrag vom November 2018 mit dem Titel „How Much Do The Climate Crusaders Plan To Increase Your Costs Of Electricity? – Part III“ [etwa: Wie stark wollen die Klimakreuzritter Ihre Stromkosten erhöhen?]. Andrews nutzte die tatsächlichen täglichen Produktionsdaten bestehender kalifornischer Wind- und Solaranlagen, um zu prognostizieren, wie viel von diesen Anlagen benötigt würde, um die gesamte Jahresnachfrage in Kalifornien über ein ganzes Jahr hinweg zu befriedigen; und dann nutzte er dieselben Daten, um tägliche Überschüsse und Defizite zu berechnen, um herauszufinden, wie viel Batteriekapazität (in GWH) benötigt würde, um die längste Periode niedriger Produktion zu überstehen. Die wichtigste Erkenntnis aus der Arbeit von Andrews – die sich schon aus der Betrachtung der Daten für die tatsächliche Tagesproduktion bestehender Wind- und Solaranlagen ergibt – ist, dass die Produktion dieser Anlagen nicht nur innerhalb eines Tages oder einer Woche schwankt, sondern auch stark saisonabhängig ist, mit einer höheren Produktion im Frühjahr und Herbst und einer niedrigeren Produktion vor allem im Winter.

Das folgende Diagramm von Andrews zeigt die Produktion aus bestehenden Wind- und Solaranlagen, normalisiert auf die gesamte Nachfrage im Laufe eines Jahres, aufgetragen gegen die tatsächliche Nachfrage auf Tagesbasis:

Die großen Überschüsse im Frühjahr und die Defizite im Winter fallen sofort ins Auge. Andrews berechnete daraufhin – und dies ist eine Frage der einfachen Arithmetik – die täglichen Überschüsse und Defizite, um herauszufinden, wie viel Batteriekapazität Kalifornien für ein ganzes Jahr benötigen würde. Hier sind seine Diagramme, die diese Arbeit zeigen:

Unterm Strich bräuchte man etwa 25.000 GWH an gespeicherter Energie, um das ganze Jahr zu überstehen. Die Batterien würden dieses Niveau etwa im August erreichen und bis März entladen werden. Und das natürlich bei einem Spitzenverbrauch von etwa 40 GW. Wenn man das auf einen Spitzenverbrauch von etwa 50 GW erhöht, braucht man etwa 32.000 GWH Speicher.

Wie viel wird das also kosten? In meinem Beitrag vom November 2018 lautete die Antwort für Kalifornien „rund 5 Billionen Dollar“. Schauen wir mal, ob wir eine aktuellere Zahl bekommen können. Laut diesem Beitrag bei Electrek vom 1. April 2021 plant Apple – in dem Bemühen, seine extreme unternehmerische Klimatugend zu demonstrieren – den Bau eines gigantischen Batterieprojekts, mit dem die Firmenzentrale ausschließlich mit Solarstrom betrieben werden soll. Aus der Pressemitteilung von Apple:

„Apple baut mit California Flats eines der größten Batterieprojekte des Landes – ein branchenweit führendes Energiespeicherprojekt im Netzmaßstab, das 240 Megawattstunden Energie speichern kann, genug, um über 7.000 Haushalte einen Tag lang mit Strom zu versorgen. Dieses Projekt unterstützt den 130-Megawatt-Solarpark des Unternehmens, der die gesamte erneuerbare Energie in Kalifornien liefert, indem es die tagsüber erzeugte überschüssige Energie speichert und dann einsetzt, wenn sie am meisten gebraucht wird.“

Die Batterien werden von Tesla geliefert. Auf der Grundlage der Preisangaben von Tesla, wonach die Kosten für solche Batterien zwischen 200 und 300 US-Dollar pro Kilowattstunde liegen, berechnet Electrek die Kosten von Apple für die 240 MWH an Batteriekapazität auf etwa 50 Millionen US-Dollar. Wie hoch wären dann die Kosten für diese Batterien im Wert von 32.000 Gigawattstunden? Rechnen Sie selbst. Falls es Ihnen hilft: Ein GWH besteht aus einer Million KWH. Ich komme auf etwa 6,7 Billionen Dollar.

6,7 Billionen Dollar sind weit mehr als das Doppelte des jährlichen BIP von Kalifornien. Erinnern Sie sich daran, dass die gemeinsame Task Force der kalifornischen Behörden die zusätzlichen Kosten für ein System, das ausschließlich aus Wind- und Solarenergie sowie Speicheranlagen besteht, mit 4,6 Milliarden Dollar beziffert hat. Könnten sie wirklich um einen Faktor von weit über 1000 daneben liegen?

In der Zwischenzeit baut Kalifornien seine Netzbatteriekapazität in großem Umfang aus, angeblich um das Netz angesichts des Zubaus von Solar- und Windenergie auszugleichen. Aber sind die zusätzlichen Kapazitäten für diese Aufgabe sinnvoll oder auch nur annähernd kosteneffizient? Hier ist ein Beitrag von RenewEconomy vom 5. April:

Ein kürzlich von Bloomberg Green veröffentlichter Bericht, der sich auf neue Zahlen von BloombergNEF beruft, zeigt, dass die führenden Energieanalysten davon ausgehen, dass Kalifornien nicht nur im Jahr 2021 neue Batteriespeicher im Wert von 1,7 GW installieren wird, sondern auch weitere 1,4 GW im Jahr 2022, gefolgt von 1,2 GW im Jahr 2023.

Immer GW, nie GWH. Der Versuch, aus diesen Leuten nützliche Informationen herauszubekommen, ist fast unmöglich. Ich glaube, sie sind alle völlig überflüssig. Gibt es unter den 40 Millionen Menschen in Kalifornien nicht einen einzigen, der auch nur eine relevante Frage stellen kann?

Ich bin nach wie vor der Meinung, dass es das Beste für das Land und die Welt wäre, wenn diese Leute versuchen würden, ihre Utopie so schnell wie möglich zu verwirklichen, und sie dann schnell in Flammen aufgehen lassen, damit alle es sehen und daraus lernen können. Vielleicht werden sie aber auch Erfolg haben. Ich wünsche ihnen auf jeden Fall das Beste, aber allem Anschein nach haben sie keine Ahnung, was sie da tun.

This piece originally appeared at ManhattanContrarian.com and has been republished here with permission.

Link: https://cornwallalliance.org/2022/02/californias-zero-carbon-plans-can-anybody-here-do-basic-arithmetic/

Übersetzt von Christian Freuer für das EIKE

 




Die Falsch-Interpretation des wissenschaftlichen Konsens‘ bzgl. Klimawandel

Iain Aitken

Der IPCC, die „international anerkannte wissenschaftliche Autorität auf dem Gebiet des Klimawandels“, hat in seinem Fünften Sachstandsbericht seine Meinung dazu geäußert, inwieweit die jüngste globale Erwärmung durch menschliche Aktivitäten verursacht wurde: „Es ist sehr wahrscheinlich [mit 95-100%iger Sicherheit], dass mehr als die Hälfte des beobachteten Anstiegs der globalen mittleren Oberflächentemperatur von 1951 bis 2010 durch den anthropogenen [d.h. vom Menschen verursachten] Anstieg der Treibhausgaskonzentrationen und andere anthropogene Einflüsse zusammen verursacht wurde“. In Anlehnung an diese Meinung stellt Wikipedia fest, dass der „wissenschaftliche Konsens zum Klimawandel“ darin besteht, dass „die Erde sich erwärmt und … diese Erwärmung hauptsächlich durch menschliche Aktivitäten verursacht wird“. Es wird behauptet, dass 97 bis 100 % der aktiv publizierenden Klimawissenschaftler dieser Meinung zustimmen. In ähnlicher Weise behauptet die NASA: „Es besteht ein Konsens über den Klimawandel und seine menschliche Ursache… menschliche Aktivitäten sind die Hauptursache für den beobachteten Trend der Klimaerwärmung im letzten Jahrhundert“. Und in einem Interview in der CBS-Sendung 60 Minutes vom Oktober 2020 sagte der Klimatologe Dr. Michael Mann: „Über den vom Menschen verursachten Klimawandel gibt es ungefähr so viel wissenschaftlichen Konsens wie über die Schwerkraft“. Stimmt es also, dass 97 bis 100 % der Klimawissenschaftler diese Kernaussage des IPCC ausdrücklich oder stillschweigend unterstützen?

Obwohl die Wissenschaft nicht im Entferntesten demokratisch ist (es braucht nur einen Wissenschaftler, um zu beweisen, dass die „Konsensmeinung“ falsch ist, und sie ist falsch), bleibt die Tatsache bestehen, dass, wenn diese 97-100%ige Konsensbehauptung wahr ist, sie tatsächlich sehr mächtig ist. Wenn die „international anerkannte wissenschaftliche Autorität für den Klimawandel“ sagt, dass etwas mit ziemlicher Sicherheit wahr ist, und fast alle Klimawissenschaftler der Welt zustimmen, dann muss es mit ziemlicher Sicherheit wahr sein – nicht wahr? Auch wenn es zweifellos einen fast vollständigen wissenschaftlichen Konsens unter den wissenschaftlichen Behörden gibt (buchstäblich Dutzende von wissenschaftlichen Akademien aus der ganzen Welt unterstützen explizit oder implizit die Meinungen des IPCC), spiegelt dies nicht unbedingt die übereinstimmende Meinung der Klimawissenschaftler selbst wider. Worüber genau sind sich die Klimawissenschaftler also einig?

Das Konsensargument wird durch Barack Obamas Tweet aus dem Jahr 2013 verkörpert: „Siebenundneunzig Prozent der Wissenschaftler sind sich einig: Der Klimawandel ist real, menschengemacht und gefährlich“. Er twitterte dies unmittelbar nach der Veröffentlichung der berühmtesten Konsensstudie zum Klimawandel, Quantifying the consensus on man-made global warming in the scientific literature (John Cook et al, 2013), die von Skeptical Science durchgeführt wurde, einer kleinen Gruppe von Klimawandel-Aktivisten, die trotz ihres Namens genau das Gegenteil von Klimawandel-Skeptikern sind (ihr Slogan lautet „Getting skeptical about global warming skepticism). Die Studie untersuchte die Abstracts von 11.944 klimawissenschaftlichen Artikeln, die in den zwanzig Jahren von 1991 bis 2011 veröffentlicht wurden. Sie kam zu dem Schluss, dass 97,1 % der Abstracts (die sich tatsächlich zu den Ursachen der globalen Erwärmung geäußert haben) die Ansicht unterstützen, dass vom Menschen verursachte Treibhausgasemissionen (oder zumindest Treibhausgase) die globale Erwärmung verursachen. Obwohl es sich um 97 % der Abstracts und nicht um 97 % der Klimawissenschaftler handelte, ist es nicht unvernünftig anzunehmen, dass auf der Grundlage dieser Umfrage etwa 97 % der Klimawissenschaftler die Ansicht vertreten, dass die vom Menschen verursachten Treibhausgasemissionen (oder zumindest die Treibhausgase) die globale Erwärmung verursachen. Die Umfrage sagt nichts darüber aus, wie viel Erwärmung diese Emissionen verursachen und ob diese Erwärmung „gefährlich“ ist oder nicht. Es ist wahrscheinlich, dass mindestens 99,9 % der Menschen, die sich als Klimawissenschaftler bezeichnen könnten (einschließlich derjenigen, die der Idee der Klimakrise am skeptischsten gegenüberstehen), die Ansicht vertreten, dass die vom Menschen verursachten Treibhausgasemissionen (oder zumindest Treibhausgase) eine globale Erwärmung, d. h. eine gewisse globale Erwärmung, verursachen. Das ist nicht ernsthaft umstritten. Der Streit dreht sich darum, wie viel globale Erwärmung der Mensch verursacht und ob diese „gefährlich“ ist oder nicht. Die Studie hat also nichts ergeben, was nicht bereits bekannt und unumstritten war.

Skeptical Science fasste ihre Ergebnisse mit der Aussage zusammen: „97 % der Klima-Studien, die sich zur vom Menschen verursachten globalen Erwärmung äußern, sind sich einig: Die globale Erwärmung findet statt, und wir sind die Ursache“ – wobei „wir sind die Ursache“ eindeutig impliziert, dass wir die einzige Ursache sind, und nicht, was tatsächlich festgestellt wurde, nämlich dass wir die Ursache für einen Teil der globalen Erwärmung sind. Wäre die Studie in der Lage gewesen, überzeugend zu zeigen, dass 97 % der Klimawissenschaftler die Meinung des IPCC unterstützen, dass menschliche Aktivitäten die Hauptursache für die globale Erwärmung zwischen 1951 und 2010 sind, dann hätte dies sicherlich die Ansicht gestützt, dass es einen fast vollständigen wissenschaftlichen Konsens darüber gibt, dass der IPCC Recht hat. Aber von allen in dieser Studie untersuchten Abstracts haben nur 0,3 % diese zentrale IPCC-Meinung ausdrücklich unterstützt [1]. Sogar Mike Hulme (ehemaliger IPCC) hat festgestellt, dass die Studie von Cook et al. hoffnungslos verworren ist… an einer Stelle wird behauptet, dass die Studie „den Grad des wissenschaftlichen Konsenses darüber untersucht, dass menschliche Aktivitäten sehr wahrscheinlich den größten Teil der gegenwärtigen GW [Globalen Erwärmung] verursachen“, und doch basiert die Hauptschlussfolgerung auf der Bewertung von Abstracts danach, ob „Menschen die globale Erwärmung verursachen“. Dies sind zwei völlig unterschiedliche Urteile. In der kürzlich veröffentlichten Studie Greater than 99% consensus on human caused climate change in the peer-reviewed scientific literature (Lynas et al., 2021) wird behauptet, dass der Konsens um 2 % höher liegt – aber auch hier wird nur ein 99 %iger Konsens darüber festgestellt, dass der Mensch in gewissem Maße zum Klimawandel beiträgt [2]; tatsächlich haben etwa 99 % der in dieser Studie untersuchten Arbeiten das Ausmaß nicht ausdrücklich quantifiziert. Eine 2015 durchgeführte Umfrage [3] unter mehr als 1.800 Klimawissenschaftlern kam zu dem Ergebnis, dass nur 43 % von ihnen die IPCC-Meinung über unsere derzeitige vorherrschende Rolle bei der globalen Erwärmung unterstützen würden (und wie viele von ihnen stimmten in erster Linie aufgrund ihres Glaubens an den IPCC und/oder ihres Eigeninteresses daran zu, bei der Darstellung der Klimawandelkrise „auf dem Teppich zu bleiben“)?

Mike Hulme hat erklärt, dass „Behauptungen wie 2.500 der weltweit führenden Wissenschaftler sind sich einig, dass menschliche Aktivitäten einen signifikanten Einfluss auf das Klima haben“ unaufrichtig sind. Dieses spezielle Konsensurteil wird, wie viele andere in den IPCC-Berichten, von nur ein paar Dutzend Experten getroffen. Zur Untermauerung dieser Ansicht wurde in einer unabhängigen Studie [4] festgestellt, dass die vom IPCC geäußerten Ansichten der Konsens einer Führungsriege von nur 53 (etwa 2 %) von ihnen waren, von denen 44 beruflich sehr eng miteinander verbunden waren, da sie gemeinsam Studien verfasst hatten und daher sehr wahrscheinlich dieselben Ansichten teilten. Der Autor der Studie, John McLean (Analyst für Klimadaten bei der Australian Climate Science Coalition und Gutachter für den Fünften Sachstandsbericht des IPCC), kam zu dem Schluss, dass „die Regierungen naiv und unklugerweise die Behauptungen eines menschlichen Einflusses auf die globalen Temperaturen akzeptiert haben, die von einer engen Clique von ein paar Dutzend Wissenschaftlern aufgestellt wurden, von denen viele Klimamodellierer sind, als ob sie die Meinung der breiteren wissenschaftlichen Gemeinschaft repräsentieren würden“.

Eine der umfassendsten Übersichten [5], die jemals über den wissenschaftlichen Konsens zum Klimawandel erstellt wurde, kam zu dem Schluss:

● Die Artikel und Umfragen, die am häufigsten zitiert werden, um einen „wissenschaftlichen Konsens“ zugunsten der Hypothese einer katastrophalen, vom Menschen verursachten globalen Erwärmung zu belegen, sind ausnahmslos methodisch mangelhaft und oft absichtlich irreführend.
Es gibt keine Umfrage oder Studie, die einen „Konsens“ in den wichtigsten wissenschaftlichen Fragen der Klimawandel-Debatte belegt.

● Umfassende Umfragedaten zeigen, dass unter den Wissenschaftlern tiefe Meinungsverschiedenheiten über wissenschaftliche Fragen bestehen, die geklärt werden müssen, bevor die Hypothese der vom Menschen verursachten globalen Erwärmung bestätigt werden kann.

● Viele prominente Experten und wahrscheinlich die meisten arbeitenden Wissenschaftler sind mit den Behauptungen des IPCC nicht einverstanden.

Wie lautet also der tatsächliche wissenschaftliche Konsens zum Klimawandel? Es besteht ein nahezu vollständiger wissenschaftlicher Konsens darüber, dass die Kohlendioxidkonzentration in der Atmosphäre ansteigt, dass dieser Anstieg überwiegend auf menschliche Aktivitäten zurückzuführen ist, dass sich das Klimasystem erwärmt, dass ein Klimawandel stattfindet und dass menschliche Aktivitäten in gewissem Umfang zur Erwärmung und zum Klimawandel beigetragen haben. Es sei nochmals darauf hingewiesen, dass skeptische Wissenschaftler wie Dr. Roy Spencer, Dr. Judith Curry und Dr. Richard Lindzen zu diesem „wissenschaftlichen Konsens über den Klimawandel“ gehören; die Vorstellung, dass sie die 3 % der Wissenschaftler darstellen, die den wissenschaftlichen Konsens über den Klimawandel nicht unterstützen, ist eine falsche Vorstellung, die den „wissenschaftlichen Konsens über den Klimawandel“ in Wirklichkeit falsch darstellt [6]. Diese Fehldarstellung soll das Narrativ der „Klimakrise“ untermauern und die skeptischen Wissenschaftler an den Rand drängen und neutralisieren, indem ihre Ansichten als weit außerhalb des überwältigenden Konsens stehend dargestellt werden, obwohl sie diesen Konsens eigentlich teilen. Im Grunde bricht der „Konsens“ an der Frage zusammen, ob der Mensch für die jüngste Erwärmung überwiegend verantwortlich ist oder nicht – und ob diese Erwärmung „gefährlich“ ist oder nicht. Die Macht der falschen „97%igen wissenschaftlichen Konsens‘, wonach menschliche Aktivitäten hauptsächlich für den Klimawandel verantwortlich sind“-Behauptung, das von Wikipedia, der NASA, Facebook (und vielen anderen) aufrechterhalten wird, besteht darin, dass es sehr effektiv eingesetzt werden kann, um jede Debatte über die Wissenschaft im Keim zu ersticken. Dr. Richard Lindzen hat es so ausgedrückt: „Die Behauptung soll den Nicht-Experten davon überzeugen, dass er oder sie die Wissenschaft nicht verstehen muss. Die bloße Zustimmung zu den 97 Prozent zeigt, dass man ein Befürworter der Wissenschaft ist und denjenigen überlegen ist, die die Katastrophe leugnen. Dies befriedigt tatsächlich ein psychologisches Bedürfnis vieler Menschen“.

Um noch einmal auf die Aussage von Dr. Michael Mann zurückzukommen: „Über den vom Menschen verursachten Klimawandel besteht ungefähr so viel wissenschaftlicher Konsens wie über die Schwerkraft“, so ist dies sehr unaufrichtig. Während es einen fast vollständigen wissenschaftlichen Konsens darüber gibt, dass der Klimawandel „real“ ist und stattfindet und dass es einen gewissen vom Menschen verursachten Einfluss gibt, gibt es keinen solchen wissenschaftlichen Konsens über das Ausmaß des vom Menschen verursachten Einflusses und darüber, ob er vernünftigerweise als „gefährlich“, geschweige denn als „Krise“, bezeichnet werden kann oder nicht.

References

[1] Legates et al. (2015), Science & Education and ‘Consensus? What Consensus?’, GWPF Note 5, thegwpf.org, September 2013 and ‘Richard Tol’s Excellent Summary of the Flaws in Cook et al. (2013) and ‘The Infamous 97% Consensus Paper’, wattsupwiththat.com, 26 March 2015 and ‘The Cook ‘97% consensus’ paper, exposed by new book for the fraud that it really is’, wattsupwiththat.com, 12 March 2016

[2] ‘Cooked Up Consensus: Lynas et al “Should Rather Be Classified As Propaganda, Bad Science”’, wattsupwiththat.com, 26 October 2021

[3] Bart Strengers, Bart Verheggen and Kees Vringer (2015), Climate Science Survey, Questions and Responses, PBL Netherlands Environmental Assessment Agency, pp 1 – 39

[4] ‘Prejudiced authors, prejudiced findings’, John McLean, (Science and Public Policy Institute), July 2008

[5] Why Scientists Disagree About Global Warming (2015) – Craig D. Idso, Robert M. Carter, S. Fred Singer

[6] ‘Study: 3% Contrarians Derailing the 97% Climate Consensus’, wattsupwiththat.com, 18 December 2021

[Note: This essay is abstracted from my eBook Myths: Widely Held But False Beliefs In The Climate Change Crisis, available on Amazon]

Link: https://wattsupwiththat.com/2022/02/10/the-misrepresentation-of-the-scientific-consensus-on-climate-change/

Übersetzt von Christian Freuer für das EIKE

 




Methan – der nächste Teufel?

Zum Thema Methan sind etwa gleichzeitig drei Beiträge erschienen. Es scheint, dass – nachdem das Thema CO2 nicht mehr so zieht – ein neuer Teufel an die Wand gemalt wird. Zwei dieser Beiträge folgen hier in deutscher Übersetzung, der dritte ist unten verlinkt. – Der Übersetzer

Wozu dient eigentlich Methan?

Willis Eschenbach

Nun, es scheint, als hätten die Klimaalarmisten gemerkt, dass ihr hysterisches Gekreische über Kohlendioxid (CO2) nicht die gewünschte Wirkung hat. Also wenden sie sich einem neuen Bösewicht zu: Methan (CH4). In Nature, einer ehemals seriösen wissenschaftlichen Fachzeitschrift, wird darüber gejammert, dass Methan „in neue Höhen aufsteigt“:

Abbildung 1: Aus dem Magazin Nature. Das Original findet man hier.

Um das zu überprüfen, wie es meine Art ist, schaute ich auf Daten aus mehreren Quellen – moderne Messungen und Eisbohrkerne. Der Nature-Artikel zeigte nur die Veränderungen seit 1984, aber ich beginne immer mit einem langen Überblick, um den Kontext der Daten zu verdeutlichen. Hier ist die Veränderung des atmosphärischen Methans seit 1750:

Abbildung 2. Veränderungen von Methan in der Luft seit 1750. Eiskerndaten bis 1980, moderne Messungen ab 1984

Diese Daten geben in gewisser Weise Rätsel auf. Erstens kennt niemand die Ursache für die Verlangsamung des Methananstiegs, die um 1985 begann und um 2005 endete.

Zum anderen weiß niemand, warum der Anstieg wieder einsetzte. Aus dem Nature-Artikel:

Der Anstieg der Methanemissionen verlangsamte sich um die Jahrtausendwende, begann aber um 2007 einen raschen und mysteriösen Anstieg. Dieser Anstieg hat viele Forscher zu der Sorge veranlasst, dass die globale Erwärmung einen Rückkopplungs-Mechanismus in Gang setzt, der dazu führt, dass immer mehr Methan freigesetzt wird, wodurch es noch schwieriger wird, den Temperaturanstieg einzudämmen.

„Die Methanwerte steigen gefährlich schnell an“, sagt Euan Nisbet, ein Geowissenschaftler an der Royal Holloway University of London in Egham, Großbritannien. Die Emissionen, die sich in den letzten Jahren offenbar beschleunigt haben, stellen eine große Bedrohung für das Ziel der Weltgemeinschaft dar, die globale Erwärmung auf 1,5 bis 2 °C gegenüber den vorindustriellen Temperaturen zu begrenzen.

HILFE!! BESORGTE FORSCHER! WERTE WACHSEN GEFÄHRLICH SCHNELL! RÜCKKOPPLUNGS-MECHANISMUS!
(Darf ich am Rande erwähnen, wie sehr mich Wissenschaftler und Forscher, die „besorgt“ sind, langweilen? Soweit ich das beurteilen kann, suchen diese Leute nächtelang nach Dingen, über die sie sich Sorgen machen können, und wenn sie etwas gefunden haben, versuchen sie, uns davon zu überzeugen, dass wir uns alle auch Sorgen machen sollten … aber ich schweife ab.)

Wie auch immer, wie schnell steigen die Methanwerte? Um das zu untersuchen, hier eine Grafik des fünfjährigen „nachlaufenden Trends“. Dabei handelt es sich um den Trend der Veränderung in den fünf Jahren vor dem jeweiligen Jahr der Aufzeichnung:

Abbildung 3. Veränderungen in den Fünf-Jahres-Trends des Anstiegs von Methan in der Atmosphäre.

Nennen Sie mich verrückt, aber ich sehe nicht, was der „besorgte Forscher“ als „gefährlich schnell wachsende“ Methanwerte bezeichnete … sie steigen nur um ein Drittel so schnell wie 1985.

Meine Schlussfolgerung?

Ich mache mir erst dann Sorgen, wenn der Trend irgendwo in der Nähe der Werte von 1985 ansteigt.

DATA:

Beck Ice Core Data

Law Dome Ice Core Data

Modern CH4 Data

Link: https://wattsupwiththat.com/2022/02/09/just-what-is-ch-for/

———————————

Methan-Alarm!

Kip Hansen

Ich möchte die Leser nicht beunruhigen, aber die Nachricht ist so schockierend, dass ich es tun muss. Die Konzentration des atmosphärischen Methans, eines Moleküls auf Kohlenstoffbasis, steigt in die Höhe, und zwar immer schneller.  Methan ist ein Treibhausgas! Die gut gemischten Methankonzentrationen in der Atmosphäre sind seit Anfang der 1980er Jahre von 1640 ppb auf über 1900 ppb angestiegen.

Die National Oceanic and Atmospheric Administration (NOAA) veröffentlicht diese erschreckende Grafik:

Zum Glück für uns:

Wissenschaftler schlagen Alarm wegen des „gefährlich schnellen“ Anstiegs von Methan in der Atmosphäre.

Unsere stets wohlwollende und schützende Klasse von Wissenschaftlern hat uns gerettet, indem sie Alarm schlug – sonst wären wir vielleicht nicht ausreichend alarmiert über diese gefährliche Situation.

Die Pointe von Nature lautet, wie Sie vielleicht schon erraten haben: „Einige Forscher befürchten, dass die globale Erwärmung selbst hinter dem rapiden Anstieg steckt.“

Ja, das ist richtig. Die globale Erwärmung (selbst!) könnte hinter dem rapiden Anstieg stecken.

Der Autor des „Nature“-Artikels Jeff Tollefson nennt dies einen „düsteren Meilenstein“ (allerdings wird kein Grund dafür genannt, warum dies ein düsterer oder ein Meilenstein ist).

Wer sich für dieses triviale Thema interessiert, sollte den Nature-Artikel lesen. Er enthält einige interessante Hinweise auf vermutete und angenommene Methanquellen und den Grund für das recht merkwürdige Muster von Anstieg und Rückgang in den mehrjährigen Daten.

Wie auch immer, hier ist:

Die Quintessenz
1. Achten Sie immer auf die Einheiten, die den numerischen Daten beigefügt sind:
1900 ppb (Teile pro Milliarde) sind 1,9 ppm (Teile pro Million)
Oder, in Prozent der Atmosphäre:
0,000 19 Prozent [%]

2. In der realen Welt™ bedeutet das, dass die Menge an Methan in der Atmosphäre so gering ist – es gibt mehr Neon und Helium in der Atmosphäre als Methan – dass Sie, wenn Sie nach einem Methanmolekül suchen und einzeln eine MILLION Moleküle sortieren, vielleicht ein oder zwei finden. In der ersten Milliarde finden Sie vielleicht kein einziges, aber wenn Sie genügend Milliarden sortieren, liegt die durchschnittliche Fundrate bei knapp 2 pro Milliarde. (Viel Glück!)

3.Da sich die Erde nach der kleinen Eiszeit weiter erwärmt und ergrünt, sehen wir mehr Leben, was mehr Methan bedeutet. Mehr Leben ist eine gute Sache.

4. Die Methanwerte in der Atmosphäre sind in die Höhe geschnellt! – auf fast Null.

Link: https://wattsupwiththat.com/2022/02/09/methane-spikes/

———————————

Im dritten Beitrag geht es um die Idee einer Methan-Steuer. Der Autor ist jedoch auf der alarmistischen Seite zu verorten, so dass auf eine Übersetzung verzichtet wird. Wen es interessiert, der schaue hier.

Übersetzt von Christian Freuer für das EIKE