Henrik Svensmark: Der Zusammenhang zwischen kosmischer Strahlung und Klima DEUTSCHE VERSION

16. Internationale EIKE-Klima- und Energiekonferenz, IKEK-16, 14.-15. Juni 2024, Wien.

Quantifizierung der Rolle, die die Sonne beim Klimawandel spielt. Warum glauben wir, daß es sich um kosmische Strahlung handelt, und was bedeutet das?

Nir Shaviv und Henrik Svensmark erklären, wie die Sonne der Erde unser Klima steuert. Sie entdeckten den Svensmark-Shaviv-Effekt, wie wir ihn bei EIKE nennen, fast gleichzeitig und unabhängig voneinander: Kosmische Strahlung, Überreste von Supernovae, trifft auf die obere Atmosphäre des Planeten und erzeugt in einem komplizierten Prozeß Wolkenkerne.
Die Teilchenstrahlung der Erdsonne verdrängt nun einen Teil dieser kosmischen Teilchen, was im Extremfall, nach einer Koronaeruption, seit den 1950er Jahren als Forbush-Effekt bekannt ist. Auf diese Weise bewirkt die Sonne – je nach ihrer eigenen aktuellen Strahlungsintensität – eine Abnahme der Wolkendecke, indem sie die Anzahl der für ihre Bildung erforderlichen Kerne verringert. Die Folge ist der bereits erwähnte Dominoeffekt: Weniger Wolken reflektieren weniger Sonnenstrahlung zurück ins All, wodurch sich die Atmosphäre aufheizt.




Es ist an der Zeit, die 50-jährige Sicherheitsbilanz der Marine bei der Stromerzeugung aus Kernenergie nachzuvollziehen

Ronald Stein und Oliver Hemmers.

Die Versorgung der Kunden mit bezahlbarem, reichlich vorhandenem, zuverlässigem, sauberem und emissionsfreiem Strom ist für die moderne Lebensqualität sehr wichtig. Das Erreichen dieses Ziels wird durch ein anfälliges Netz und die Unbeständigkeit der Stromerzeugung aus Wind und Sonne gefährdet. Um die kommende Krise in der Stromversorgung für die Anforderungen von Rechenzentren und KI zu bewältigen, ist es an der Zeit, Gespräche über die Stromerzeugung anzuregen, die den Bedürfnissen der Endverbraucher gerecht werden.

Die für die Marine entwickelten Kernkraftwerke haben fünf Jahrzehnte lang gut funktioniert. Alle seit 1975 in Dienst gestellte U-Boote und Superträger der US-Marine werden mit Kernkraft betrieben. Andere Militärdienste steigen jetzt ein. Wenn ein derartig zuverlässiges und widerstandsfähiges System für die Erzeugung von emissionsfreiem Strom, der kontinuierlich und unterbrechungsfrei ist, auf den kommerziellen Strommarkt ausgedehnt werden kann, würde es einer Vielzahl von Anbietern ermöglichen, um das Geschäft der Endverbraucher zu konkurrieren, was zu erheblich niedrigeren Strompreisen führen würde.

Heute sind rund 440 konventionelle Kernkraftwerke in 32 Ländern und Taiwan in Betrieb und 62 neue Reaktoren im Bau. Am 1. August 2023 gab es in den Vereinigten Staaten 54 Kernkraftwerke mit 93 in Betrieb befindlichen kommerziellen Kernreaktoren in 28 Bundesstaaten. Diese Anlagen erzeugen etwa 20 % der Elektrizität des Landes. Die Kernenergie hat den Wettbewerbsvorteil, dass sie die einzige Grundlaststromquelle ist, die den gewünschten Ausbau einer sauberen, emissionsfreien, kontinuierlichen und unterbrechungsfreien Stromversorgung der Endverbraucher ermöglichen kann.

– Im Mai 2024 waren weltweit 214 Kernreaktoren dauerhaft abgeschaltet. Die meisten Abschaltungen verzeichneten die Vereinigten Staaten mit 41 Blöcken. In jüngster Zeit wurden seit 2012 zwölf US-Kernreaktoren endgültig stillgelegt, und auch in Kalifornien und kürzlich in New York wurden Kernkraftwerke abgeschaltet, die durchaus lebensfähig und rentabel waren.

– Die Abschaltung von weitere sieben US-Reaktoren wurden bis 2025 angekündigt, mit einer Gesamterzeugungskapazität von 7.109 MW (das entspricht etwa 7 % der US-Kernenergieerzeugung).

– Die angekündigten Stilllegungen haben jedoch nicht immer wie geplant stattgefunden: 16 Reaktoren, deren endgültige Stilllegung angekündigt war, wurden aufgrund staatlicher Maßnahmen, die ihnen zusätzliche Einnahmequellen verschaffen, weiter betrieben. Diese 16 Reaktoren in 6 Bundesstaaten verfügen über eine Stromerzeugungskapazität von 15.734 MW (16 % der gesamten US-Kernenergieerzeugung). Viele andere US-Reaktoren wurden in jüngsten Studien als „gefährdet“ eingestuft, aus wirtschaftlichen Gründen stillgelegt zu werden, obwohl ihre Schließung nicht angekündigt wurde.

Reaktoren der nächsten Generation sind der Kleine Modulare Reaktor (SMR) und der Schnelle Brutreaktor (FBR). Bei den SMR handelt es sich um neue Reaktortypen, die leicht verbrauchte Kernbrennstoffe (SUNF) produzieren, diese aber NICHT recyceln. Der Einsatz von SMR-Reaktoren ist zwar für verschiedene Anwendungen von Vorteil und wird Teil des künftigen Strommixes sein, doch unterscheiden sich diese Reaktortypen deutlich von den Schnellen Brütern (FBR), die mit Hilfe schneller Neutronen mehr Kernbrennstoffe erzeugen, als sie bei der Stromerzeugung verbrauchen, wodurch die Effizienz der Energieressourcen drastisch erhöht wird.

Die Kommerzialisierung der Kernenergie zur Erzeugung von emissionsfreiem, kontinuierlichem und unterbrechungsfreiem Strom scheint praktikabler zu sein als je zuvor.

Die Einführung von intermittierendem Strom hat das System der „bedarfsgesteuerten“ Versorgung insofern gestört, als die Sonnen- und Windverhältnisse die Versorgungsunternehmen zwingen, eine gleichmäßigere „Grundlast“-Stromerzeugung an diese Verhältnisse anzupassen. Dies hat die Gefahr von Stromausfällen und Spannungsabfällen bei ungünstigen Wetterbedingungen erhöht. Der Grund für diese Veränderungen ist der Wunsch, die Stromerzeugung auf „sauberen Strom“ umzustellen.

Kohle und Erdgas können Grundlaststrom liefern, der kontinuierlich und unterbrechungsfrei ist und an den Bedarf angepasst werden kann. Sie gelten jedoch als „schmutziger Strom“. Da Grundlaststrom für eine konstante Stromversorgung unverzichtbar ist, werden zusätzliche Grundlaststromquellen wahrscheinlich Kernkraftwerke sein, da sie keinen „schmutzigen Strom“ erzeugen.

Eine konstante und stabile Stromversorgung ist nicht nur eine Frage der Lebensqualität, sondern auch eine Frage der nationalen Sicherheit. Die Menschen und die Wirtschaft sind inzwischen so sehr von Strom abhängig, dass sie im Falle eines Stromausfalls keine alternativen Methoden mehr haben, um Wärme, Licht, Lebensmittelkonservierung und Klimaanlagen zu ersetzen. Die Menschen müssen also zu 100 % mit wirtschaftlicher Elektrizität versorgt werden, sonst kommt es zu schwerwiegenden Störungen in ihrem Leben und in der Wirtschaft, die in bestimmten medizinischen Situationen sogar zum Tod führen können.

Das größte Hindernis auf dem Weg zu diesem Ziel scheinen die Mainstream-Medien und der Klima-NGO-Industrie-Umwelt-Komplex zu sein, die gegen die Kernenergie sind, da sie die Subventionen der Steuerzahler für erneuerbare Energien und die politische Haltung, die Kernenergie in den Vereinigten Staaten vom Markt zu nehmen, massiv erhöhen. Sie fördern auch eine massive unnötige staatliche Regulierung, die den Preis für Atomstrom in die Höhe treibt.

Die Kernkraftindustrie hat die beste industrielle Sicherheitsbilanz unter allen Stromerzeugungsindustrien. Die am meisten Aufmerksamkeit erfordernde Sorge ist also die um die abgebrannten Kernbrennstoffe, die gemeinhin als „Atommüll“ bezeichnet werden. Die Lösung liegt also in der Aufklärung von Staatsoberhäuptern, Mainstream-Medien und politischen Entscheidungsträgern, indem das Konzept des Recyclings auf die nicht verbrauchte Energie in verbrauchten Kernbrennstoffen ausgedehnt wird, ein Verfahren, das die Menschen davon überzeugen kann, dass das Problem des „nuklearen Abfalls“ in den Griff zu bekommen ist, dass die Stromkosten wettbewerbsfähig sind und dass die Erzeugung von Kernkraftstrom sicher ist.

[Hervorhebungen vom Übersetzer]

Das Recycling von schwach verbrauchtem Kernbrennstoff (SUNF) in einem Schnellen Brutreaktor (FBR) bietet alle diese Abhilfemaßnahmen auf eine Weise, die wettbewerbsfähig und öffentlich akzeptabel ist.

[Hervorhebung im Original]

Die Wiederverwertung gebrauchter Kernbrennstoffe in Schnellen Brutreaktoren hat viele Vorteile:

1. Sie bietet eine Lösung für die Entsorgung des Lagerbestands an schwach verbrauchtem Kernbrennstoff (Slightly Used Nuclear Fuel; SUNF)

2. Die derzeitigen Bestände an SUNF bieten einen im Wesentlichen unbegrenzten Vorrat an einheimischem Brennstoff.

3. Das Brennstoffmaterial ist bereits abgebaut, so dass die erzeugte Energie nahezu 100 % sauber ist und weitere Umweltbelastungen durch den Abbau nicht erforderlich sind.

4. Die Öffentlichkeit wäre der Kernenergie gegenüber aufgeschlossener, da „Abfall“ als „Brennstoff“ verwendet wird, wodurch die Rückhaltung nicht verbrauchter Brennstoffe reduziert und die wahrgenommenen Risiken verringert werden.

5. Die Konstruktion ist „inhärent sicher“. Das bedeutet, dass der Reaktor so ausgelegt ist, dass er sich bei einem Unfall ohne menschliches Zutun ausreichend abkühlt.

6. Der derzeitige Vorrat an SUNF hat einen Wert von 10 Billionen Dollar, wenn die von ihm erzeugte elektrische Energie zu 1 Cent pro kWh verkauft wird.

7. Die Prozesswärme kann für industrielle Zwecke wie die Wasserstoff- und Süßwasserproduktion sowie die Herstellung synthetischer Kraftstoffe genutzt werden.

Anstatt auf „erneuerbare“ Energien wie Wind und Sonne zu setzen, die riesige Flächen beanspruchen, vom Steuerzahler subventioniert werden und selbst dann nur gelegentlich Strom erzeugen, ist es an der Zeit, unsere technologischen Ressourcen auf die Kernenergie zu konzentrieren, die unter allen Unternehmen die beste Sicherheitsbilanz aufweist und nachweislich den billigsten, nicht subventionierten Strom erzeugt.

[Hervorhebung vom Übersetzer]

Der Schwerpunkt liegt auf der Kommerzialisierung emissionsfreier, kontinuierlicher und unterbrechungsfreier Elektrizität zur Deckung des exponentiell wachsenden Strombedarfs von Rechenzentren, KI, Flughäfen, Krankenhäusern, Telemetrie und dem Militär. Eine gute Grundlage für Definitionen und Unternehmen, die sich mit kleinen modularen Reaktoren (SMR) und schnellen Brutreaktoren (FBR) beschäftigen, befindet sich hier.

Eine kurze Einführung in den Markt der Stromerzeugung gibt es auch in diesem einstündige Video mit Chris Powers und Robert Bryce von Power Hungry an, in dem sie über Energie, Politik, Kernkraft und fossile Brennstoffe sprechen.

Die stärkste Zunahme des Stromverbrauchs kommt von den neuen Rechenzentren, die KI-Technologien beherbergen. Es wird erwartet, dass in den nächsten Jahrzehnten 50 % des zusätzlichen Stroms allein für KI benötigt werden, aber Rechenzentren können NICHT mit gelegentlichem Strom aus Wind und Sonne betrieben werden. Es ist an der Zeit, Gespräche über die Stromerzeugung anzuregen, um die Anforderungen der Endverbraucher zu erfüllen.

This article first appeared at AmericaOutLoud.news and has been republished here with permission.

Link: https://cornwallalliance.org/its-time-to-follow-the-navys-50-year-safety-record-of-nuclear-power-generation/

Übersetzt von Christian Freuer für das EIKE

 




Unterdrückung von wahrer Wissenschaft und unbequemen Wahrheiten

Andy May

Dies ist der Text eines Vortrags, den ich am 26. September 2024 auf einer Tagung des American Institute for Economic Research Bastiat Society of Houston gehalten habe.

Der Bericht AR6 des IPCC und der sogenannte „Klimakonsens“ verbergen und unterdrücken viele unbequeme Wahrheiten, die ihrer Hypothese widersprechen, wonach der vom Menschen verursachte Klimawandel gefährlich ist. Ich werde in diesem Beitrag einige Beispiele auflisten und erörtern, weitere sind in unserem kürzlich erschienenen Buch The Frozen Climate Views of the IPCC: Eine Analyse des AR6.

Doch zunächst einige persönliche Beispiele für die Unterdrückung von Konzepten, die nicht dem Konsens entsprechen.

Zwei Studien aus politischen Gründen abgelehnt

Abbildung 1. Zwei meiner eingeladenen Arbeiten, welche die Überprüfung bestanden haben und später von höheren Stellen abgelehnt worden sind.

Beide in Abbildung 1 gezeigten Studien wurden eingereicht, beide haben den Peer-Review und/oder die redaktionelle Prüfung bestanden, wurden aber schließlich von höheren Stellen in den jeweiligen Organisationen abgelehnt, und zwar kurz vor dem geplanten Veröffentlichungstermin und ohne Angabe von Gründen. Ich nahm dies als klares Zeichen dafür, dass beide Ablehnungen rein politisch motiviert waren. Schließlich hätten alle technischen Gründe für die Ablehnung während des Begutachtungsprozesses vorgebracht werden müssen.

Die PETM-Studie wurde von der Rocky Mountain Association of Geologists (RMAG) eingereicht. Sie beabsichtigte, den Artikel in ihrer Online-Publikation „The Outcrop“ zu veröffentlichen. Artikel für „The Outcrop“ werden von den Mitarbeitern und Redakteuren geprüft, jedoch nicht auf formale Art und Weise, wie dies bei Artikeln in wissenschaftlichen Zeitschriften der Fall ist.

Die Ablehnung der Studie erfolgte nicht aus fachlichen, sondern aus eklatanten politischen Gründen und nach monatelanger Arbeit des Herausgebers, eines anderen RMAG-Mitarbeiters und von mir. Die Ablehnung war eine Vorstandsentscheidung, die in letzter Minute und ohne Erklärung oder Rechtfertigung getroffen wurde, außer dem Hinweis, dass ich kein „ausgebildeter Klimatologe“ und ein „Blogger“ bin. Es war also ziemlich klar, dass die Studie nicht wegen irgendwelcher Probleme abgelehnt wurde, sondern wegen meiner Person.

Als ich mich beschwerte, schickte der Vorstand die Studie an einen weiteren Gutachter, nachdem die Studie bereits geprüft und angenommen worden war. Dem zusätzlichen Gutachter wurde ein früher Entwurf und nicht die endgültige Fassung zugesandt. In einer Telefonkonferenz wies er auf mehrere Fehler hin, von denen ich wusste, dass sie in der endgültigen Fassung nicht enthalten waren, was zu großer Verwirrung führte, bis ich erkannte, dass er die falsche Version der Studie in Händen hielt.

Der Ausschuss hat also entweder die endgültige Fassung nicht gesehen, als er die Entscheidung des Herausgebers und der Gutachter aufhob, oder er hat seinem zusätzlichen Gutachter absichtlich oder versehentlich die falsche Fassung geschickt. Ich habe dies alles erklärt, aber der Antrag wurde trotzdem abgelehnt, ohne dass ich ihn noch einmal überdacht oder auch nur einen Blick auf den endgültigen Entwurf geworfen hätte. Es handelte sich also eindeutig um eine politische Entscheidung, die auf den Schlussfolgerungen der Studie beruhte, der Tatsache, dass ich kein ausgebildeter Klimatologe bin, und der Tatsache, dass ich ein Blogger bin,. Die Studie erscheint nun in meinem Blog und ist einer meiner beliebtesten Beiträge.

Die zweite eingeladene, aber letztendlich abgelehnte Studie wurde für die Creative Society auf deren Wunsch hin geschrieben. Sie wollten, dass ich eine Studie über Klimaverschiebungen schreibe, wie sie etwa 1925, 1947, 1976 und 1997 stattgefunden haben. Sie baten mich, es in einem Online-Interview am 10. Oktober 2022 vorzustellen. Das Interview wurde aufgezeichnet, und als ich nachfragte, wann es online gestellt werden würde, hieß es, man werde sich bei mir melden. Das geschah nie, also habe ich die Studie in meinem Blog veröffentlicht. Mir wurde nie ein Grund genannt, warum es von der Creative Society nicht online gestellt wurde.

Die Diskussion über die Klimaverschiebungen war interessant, da sie mit den periodischen Veränderungen im Erdmantel zusammenhängen könnten.

Eine Studie, die einen Redakteur zum Rücktritt veranlasste

Abbildung 2. Eine sehr fundierte Studie von Roy Spencer und William Braswell, die den Herausgeber, der sie veröffentlichte, zum Rücktritt veranlasste.

Wolfgang Wagner, der damalige Chefredakteur der Zeitschrift Remote Sensing, trat 2011 wegen einer völlig plausiblen, aber gegen den „Konsens“ gerichteten Studie von Roy Spencer und William Braswell zurück. Spencer und Braswell präsentierten solide Beobachtungen und Fakten, während ihre Kritiker nur Modellergebnisse vorlegten.

Die Debatte zwischen den beiden Seiten ist komplex und dreht sich hauptsächlich um das Vorzeichen und das Ausmaß der Rückkopplungen auf die Erwärmung durch Treibhausgase (hauptsächlich CO₂). So sollte Wissenschaft eigentlich funktionieren. Wenn ein Redakteur von oben herab verkündet, dass eine gut belegte Meinung falsch und die andere richtig ist, ohne dass eine angemessene Diskussion und Debatte stattfindet, ist das Politik und keine Wissenschaft.

Zwei Studien, die zur Entlassung der Redakteure führten

Abbildung 3. Zwei von Prof. Richard Lindzens Studien, die dazu führten, dass die Redakteure gefeuert wurden, welche sie akzeptiert hatten. Die Studie auf der rechten Seite ist Lindzens bahnbrechende erste Studie über den Iris-Effekt.

Willie Soon und Dick Lindzen berichten, dass zwei Redakteure entlassen wurden, weil sie zwei von Lindzens Studien veröffentlicht hatten. In der ersten, 1990 veröffentlichten Studie werden Lindzens Einwände gegen die Vorstellung dargelegt, dass ein vom Menschen verursachter verstärkter Treibhauseffekt die Hauptursache für die derzeitige Erwärmung sein könnte; die Studie ist durchaus begründet und sicherlich kein Grund, jemanden zu entlassen. In der Studie wird davor gewarnt, dass noch mehr endgültige Beweise für die potenziellen Gefahren der vom Menschen verursachten globalen Erwärmung gefunden werden müssen, bevor drastische Maßnahmen wie der Verzicht auf fossile Brennstoffe ergriffen werden. Er erinnert uns daran, dass die Ergebnisse von Klimamodellen keine Beweise sind, sondern nur Vermutungen. Lindzens Studie ist auch heute noch gültig, da auch 34 Jahre später noch keine endgültigen Beweise und Beispiele für die Gefahren des vom Menschen verursachten Klimawandels gefunden worden sind. Dies wird in Tabelle 12.12 des AR6 WGI auf Seite 1856 gut veranschaulicht, die ein wenig später in diesem Beitrag gezeigt wird.

Die zweite ist Lindzens bahnbrechende erste Studie über den Iris-Effekt auf der rechten Seite von Abbildung 3. Heute, mehr als 23 Jahre später, ist der Iris-Effekt weithin anerkannt, und wenn er in Klimamodelle einbezogen wird, bringt er die Modellergebnisse näher an die Beobachtungen heran. Sicherlich ist die Annahme einer solch grundlegenden Studie kein Grund, jemanden zu entlassen.

Man muss bedenken, dass Albert Einsteins erste Doktorarbeit abgelehnt wurde. Jahre später reichte er eine Reihe von Studien bei Max Planck in der Zeitschrift Annalen der Physik ein, von denen eine als Dissertation angenommen wurde und er schließlich seinen Doktortitel erhielt. Planck veröffentlichte Einsteins neue Dissertation und mehrere andere Studien ohne formale Begutachtung durch Fachkollegen, und Einsteins Ruf wurde begründet. Max Planck sagte, es sei wichtig, riskante Studien zu veröffentlichen, aber es sei viel schlimmer, eine möglicherweise bahnbrechende Arbeit abzulehnen. Das Peer-Review-Verfahren kann wirklich innovative Arbeiten unterdrücken, und das geschieht auch häufig. Manchmal werden Studien einfach deshalb abgelehnt, weil sie neu sind und der „Konsens“-Meinung widersprechen.

Heute wird der Iris-Effekt in den IPCC-Berichten ausführlich erörtert, wenn auch oft ohne Erwähnung von Lindzens Namen, und eine Suche über Google Scholar zeigt sieben veröffentlichte Studien seit der Veröffentlichung der ursprünglichen Studie im Jahr 2001. Fünf davon wurden nach 2015 veröffentlicht, die jüngste im Jahr 2022. Über diese wichtige Entdeckung wurde in einer Zeitschrift berichtet, deren Herausgeber wegen der Veröffentlichung gefeuert wurde, und jetzt ist die Entdeckung anerkannte Wissenschaft. Ich konnte keine Beweise dafür finden, dass die Professoren entlassen wurden, welche Einsteins These ablehnten.

Die Zurückziehung der Studie von Alimonti

Abbildung 4. Eine ausgezeichnete Studie, die von Kapitel 12 des AR6 unterstützt wird, wurde von SpringerNature ohne Angabe von Gründen zurückgezogen, außer dass „Bedenken geäußert wurden…“.

Was Roger Pielke Jr. als das ungeheuerlichste Versagen moderner wissenschaftlicher Veröffentlichungen bezeichnet, ist die Tatsache, dass diese hervorragende Studie von Gianluca Alimonti und seinen Kollegen auf Druck des „Konsens’“ und der Mainstream-Medien zurückgezogen wurde. Pielke Jr. glaubt, dass der Rückzug allein auf dem folgenden Satz der Studie beruhte:

„Auf der Grundlage von Beobachtungsdaten lässt sich schlussfolgern, dass die Klimakrise, die wir nach Meinung vieler Quellen heute erleben, noch nicht offensichtlich ist.“

Das ist einfach dasselbe, was die AR6 WGI in ihrer Tabelle 12.12 in Abbildung 5 sagt. Die Rückzugsmeldung von SpringerNature enthielt keine inhaltlichen Einwände gegen die Studie, sondern besagt lediglich, dass „Bedenken geäußert wurden…“. Für weitere Details siehe hier.

AR6 und Extremwetter

Abbildung 5. Tabelle 12.12 im AR6 WGI. Die farbigen Kästchen zeigen die Klimaänderungen, die sich bisher aus dem Klimarauschen ergeben haben. Es wurden nur einige sehr harmlose Klimaänderungen beobachtet. Die meisten, einschließlich Überschwemmungen, Meeresspiegelanstieg, Dürre und Wirbelstürme, wurden nicht beobachtet.

Hier sehen wir einen Teil der bereits erwähnten Tabelle 12.12, aus AR6, Kapitel 12, Seite 1856. Die rechte Spalte der Tabelle zeigt die nachgewiesenen „Einflussfaktoren des Klimawandels“, die heute oder in der jüngeren Geschichte der Erde, d. h. seit ~1750 oder später, zu beobachten sind. Der IPCC definiert die Einflussfaktoren des Klimawandels als physikalische Bedingungen des Klimasystems, die sich auf ein Element der Gesellschaft oder der Ökosysteme auswirken. Vom Menschen verursachte CIDs können in verschiedenen Regionen der Erde schädlich, vorteilhaft, neutral oder eine Mischung aus beidem sein.

Das heißt, eine bestimmte Klimaveränderung kann in einem Teil der Welt vorteilhaft und in einem anderen nachteilig sein. Dies liegt auf der Hand, wird aber vom Klima-Establishment oft ignoriert, das dazu neigt, nur die negativen Auswirkungen des Klimawandels zu berücksichtigen. Ein Einflussfaktor des Klimawandels ist definiert als eine Veränderung, die ein Signal-Rausch-Verhältnis von eins überschritten hat. Sie tritt oberhalb eines bestimmten Niveaus zufälliger Veränderungen auf, dem so genannten „ Rauschpegel “. Die Definition des Klimawandels ist also statistisch. Es braucht Zeit, um festzustellen, ob eine bestimmte Veränderung auf der Zeitskala des Klimas real ist. Roger Pielke Jr. und seine Kollegen fanden heraus, dass wir, selbst wenn eine bestimmte Veränderung eintritt, erst nach über 100 Jahren sicher sein können, dass es sich um eine echte Klimaänderung handelt. So lange würde es dauern, bis man die notwendigen Daten gesammelt hat, um nachzuweisen, dass sich die Veränderung aus dem Rauschen herausgelöst hat.

Wie die Legende zeigt, bedeutet Orange eine Abnahme und Blau eine Zunahme, ein weißes Kästchen bedeutet, dass keine Veränderung oberhalb des Lärmpegels festgestellt wurde. Das Kästchen für tropische Wirbelstürme ist weiß, ebenso sind die Kästchen für Windgeschwindigkeit, Dürre, Überschwemmungen, Niederschlag, Waldbrände, Erdrutsche, Versauerung der Ozeane und Anstieg des Meeresspiegels weiß, was bedeutet, dass bei all diesen Elementen keine signifikante Veränderung festgestellt wurde.

Es wird eine Zunahme extremer Hitze festgestellt, aber die Fußnote beschränkt dies auf einige tropische Regionen und Regionen der mittleren Breiten, so dass nicht einmal eine Zunahme extremer Hitzeereignisse auf globaler Ebene zu erkennen ist. In den meisten Regionen ist ein Rückgang der Kälteperioden und ein Anstieg der mittleren Lufttemperatur zu verzeichnen. Ebenso ist ein Rückgang des Permafrosts, des See- und Flusseises und ein Anstieg der mittleren Meerestemperatur zu verzeichnen. Wenn die Wissenschaftler also nur diese offensichtlichen Veränderungen festgestellt haben, die weitgehend harmlos sind, warum tun die Politiker dann so, als ginge die Welt unter? Genau das müssen wir uns fragen. Ich schätze, sie haben nicht erwartet, dass jemand bis zur Seite 1856 liest.

[Hervorhebung vom Übersetzer]

Im Folgenden beleuchtet Andy May einzelne Elemente des Wettergeschehens. Das wird immer wieder an anderer Stelle auf diesem Blog des EIKE angesprochen, so dass hier – auch wegen der Länge des Beitrags – auf die Übersetzung verzichtet wird. Im Einzelnen spricht May an:

Zyklonen und Extremwetter, Stürme, den Anstieg des Meeresspiegels, das Modell im AR6 bzgl. der Erwärmung seit der Kleinen Eiszeit, die derzeitige Sonnenaktivität und das Moderne Solare Maximum.

Am Ende seiner Ausführungen bringt May noch eine „Discussion“, die wieder übersetzt wird:

Diskussion

Zensur ist eine hässliche Sache. Sie ist Präsidentschaftskandidaten und Wissenschaftlern widerfahren. Sie ist auch mir passiert. Zensur aus einem anderen Grund als dem Schutz von Kindern vor altersunangemessenen Bildern und Texten ist sowohl unwissenschaftlich als auch falsch. Die Hauptaufgabe eines jeden Wissenschaftlers ist es, akzeptierte Ideen mit Daten und Analysen zu hinterfragen, Wissenschaft ist mit Zensur unvereinbar.

[Hervorhebung vom Übersetzer]

In den Medien hören wir ständig, dass der vom Menschen verursachte Klimawandel bereits jetzt gefährlich ist oder dass es Anzeichen dafür gibt, dass schwere Klimakatastrophen unmittelbar bevorstehen. Die einzigen beobachteten so genannten Gefahren sind jedoch, dass die Welt ein wenig wärmer ist und der CO₂-Gehalt in der Atmosphäre zugenommen hat. Diese offensichtlichen Veränderungen haben die Welt einfach grüner und besser gemacht. Alle angeblichen „Gefahren“ werden von Klimamodellen in die Zukunft projiziert, und die Klimamodelle haben sich als ungenau erwiesen.

Die Erwärmung findet hauptsächlich in den höheren Breitengraden statt, die Temperaturen in den Tropen ändern sich kaum und werden durch Verdunstung und die daraus resultierende hoch reichende Konvektion warmer, feuchter Luft mit der Folge von Gewittern auf etwa 30 °C begrenzt. Der Wärmetransport von den Tropen zu den Polen wirkt wie ein Wärmemotor, der unser Wetter erzeugt: Je mehr Wärme transportiert wird, desto stürmischer ist es. Je mehr Wärme transportiert wird, desto stürmischer ist das Wetter. Wenn sich also die höheren Breitengrade erwärmen, auch bekannt als „globale Erwärmung“, wird weniger Wärme zu den Polen transportiert, und in den mittleren Breiten bilden sich weniger und weniger heftige Stürme. Alle im 20. Jahrhundert gesammelten Daten deuten darauf hin, dass die Stürme mit der Erwärmung der Welt abnehmen und nicht zunehmen.

Der Anstieg des Meeresspiegels seit 1900 verläuft zu etwa 96 % linear, wenn man alle gängigen Aufzeichnungen über den Meeresspiegelanstieg verwendet. Die offensichtliche Beschleunigung seit 1990 fällt mit einem Aufschwung der AMO und anderer Meeresschwingungen zusammen und ist wahrscheinlich natürlichen Ursprungs. Es ist verfrüht, dies auf menschliche Aktivitäten zu schieben. Wir werden es erst in 30 Jahren wissen, wenn diese Oszillation in die Negativ-Phase wechselt.

Der Einfluss der Sonne auf das Klima ist weitaus variabler, als vom IPCC und dem Klimakonsens angenommen. Außerdem korrelieren diese bekannten Schwankungen der Sonne sehr gut mit historischen Klimaveränderungen.

Die Voreingenommenheit in den UN-Berichten über den Klimawandel ist größtenteils eine Selektionsverzerrung. Sie wählen nur Studien aus, die ihre These stützen, dass der Mensch das Klima steuert, und ignorieren die umfangreiche Literatur, die zeigt, dass die Natur durch Wolkenbedeckung, Ozeanschwankungen und die Sonne einen großen Einfluss hat, wahrscheinlich den dominierenden Einfluss auf unser langfristiges Klima. Diese Zensur durch Auslassung führt zu einer radikalen Fehlinformation der Öffentlichkeit.

Die Wissenschaft ist das bewährte Verfahren, mit dem eine Person oder eine kleine Gruppe der Welt zeigen kann, dass die von ihr gehegten Überzeugungen falsch sind. Das funktioniert nur in einer offenen Welt mit freier Meinungsäußerung und einer freien Presse. Zensur, Unterdrückung der Redefreiheit und Konsensdenken sind die Feinde von Wissenschaft und Wahrheit.

Zensur und die Unterdrückung der freien Meinungsäußerung zerstören Innovation und menschlichen Fortschritt. Würde es in einer Welt, in der der Konsens regiert und neue Ideen unterdrückt werden, einen Personal Computer in jeder Tasche und jedem Portemonnaie oder ein SpaceX Starlink geben? Nein, dies waren die Visionen einiger weniger Personen unter der Führung von Steven Jobs bzw. Elon Musk. Andere würden die Ideen für verrückt halten, wie Einsteins These oder Richard Lindzens Hypothese des Iris-Effekts. Der so genannte „Konsens“ ist der Feind von Innovation und Wahrheit.

For more details on AR6 and its problems see: The Frozen Climate Views of the IPCC: An Analysis of AR6.

Link: https://andymaypetrophysicist.com/2024/09/27/suppression-of-science-and-inconvenient-truths/

Übersetzt von Christian Freuer für das EIKE

 




Grüne Fantastereien: Das Märchen vom Wasserstoff

Wenn man fossile Energierohstoffe ablehnt, selbst wenn CO2 aus dem Rauchgas abgeschieden wird, wenn man Kernkraft sowieso nicht will und bemerkt, dass gepushte „Erneuerbare“ die Erwartungen nicht erfüllen, braucht es Hoffnungszeichen und einen festen Glauben. Das Wunder des grünen Wasserstoffs soll über uns kommen. Die Illusionen von heute werden die Enttäuschungen von morgen sein.

Von Frank Hennig

Eine flüchtige Strategie für ein flüchtiges Gas

Jules Verne bezeichnete 1875 das Wasser als die neue Kohle, wenn es durch elektrischen Strom zerlegt wird. Damals nannte man seine Schriften utopische Literatur, heute wäre es Science-Fiction oder Fantasy. Aus guten Gründen ist sein Gedanke nicht Realität geworden. Er reicht aber aus, um bei uns darauf eine ganze Energiestrategie zu gründen – ohne Plan B.

Eine gängige Formulierung der Medien zu unserer erhofften wasserstoffgrünen Energiewendewunderwelt lautet: „Der grüne Wasserstoff gilt als Energieträger der Zukunft“. Damit übernehmen die meist regierungsbegleitenden Medien keine Verantwortung, legen sich nicht fest und müssen auch nicht kundtun, dass sie selbst nicht daran glauben. Jedenfalls nicht diejenigen Journalisten, die über ein gewisses Maß an naturwissenschaftlichen Grundkenntnissen verfügen.

Eine andere gängige Formulierung bezeichnet den Wasserstoff als den „Champagner der Energiewende“. Das ist treffend, wenn man ihm die Eigenschaften knapp, teuer und edel zuschreibt. Edel deshalb, weil er vielfältig verwendet werden kann, so als technisches Gas, als chemischer Grundstoff, als Energieträger und –speicher. Aber gerade die letztgenannten Verwendungsmöglichkeiten sind nicht wirtschaftlich darstellbar.

Eine Wasserstoffstrategie soll den Rahmen geben für eine staatlich organisierte Entwicklung. Schon 2021, noch unter Wirtschaftsminister Altmaier, sollten 62 Großprojekte aus EU-, Bundes- und Landesmitteln gefördert werden. Die Strategie wird nun fortgeschrieben, 10 Gigawatt (GW) Elektrolysekapazität bis 2030 sind das Ziel, wohl zwei Drittel des benötigten H2 werden importiert werden müssen.

Ein Start- und ein Kernnetz für die Verteilung des Wasserstoffs wird gewünscht und ein „Hochlauf“ des Marktes. Dabei handelt es sich um einen Subventionsmarkt, auf dem sowohl die Hersteller als auch die Verbraucher von grünem Wasserstoff subventioniert werden müssen. Angebot und Nachfrage folgen nicht den Marktmechanismen, sondern den Vorgaben und Subventionen des Staates. Global erfolgreich war ein solches Wirtschaftssystem noch nie.

Ergebnis ist wiederum das aus der E-Mobilität bekannte Henne-Ei-Problem. Potenzielle Verbraucher rufen nach dem Gas, Lieferanten verlangen Abnahmegarantien. Das Projekt einer Wasserstoffleitung von Dänemark nach Schleswig-Holstein wird nach Aussage des nördlichen Nachbarn nur gebaut, wenn potenzielle Abnehmer vor dem Bau eine feste Abnahmemenge für 15 Jahre buchen.

Weil das gewünschte Tempo der Umsetzung nicht erreicht wird, liegt nun der Entwurf eines Wasserstoffbeschleunigungsgesetzes (WasserstoffBG) vor. Insbesondere die Planungs- und Genehmigungsverfahren sollen schneller ablaufen. Ein festgeschriebenes „überragendes öffentliches Interesse“ soll auch hier eventuellen Widerstand von Anfang an platt machen.

Zeit ist relativ, wie wir von vielen staatlichen Projekten aus Erfahrung wissen. 14 Jahre Bauzeit für einen Flughafen, vermutlich 15 Jahre für einen Bahnhofsumbau, 14 Jahre für ein Schiffshebewerk. Aber schon 2030 soll grüner Wasserstoff in großen Mengen zur Verfügung stehen, einschließlich der nötigen Infrastruktur und der Importe. Unsere dauerprogressiven Ampelparteien denken nicht daran, Erfahrungen der Vergangenheit zu berücksichtigen.

Auf dem Kraftwerkstechnischen Kolloquium der TU Dresden im vergangenen Oktober äußerte sich der Präsident des Deutschen Wasserstoff- und Brennstoffzellenverbandes, Doktor Oliver Weinmann. Er ist ausgewiesener Fachmann und Lobbyist, der das Thema voranbringen will. Zur Zukunft einer Wasserstoffinfrastruktur merkte er in der Podiumsdiskussion an, dass wir bei dieser ganz am Anfang stünden und der Aufbau Jahrzehnte dauern werde. Solche Aussagen dringen offenbar nicht in die Berliner Blase ein. Sehr wahrscheinlich ist, dass es sich ziehen wird. Wir werden Forderungen hören nach mehr Zeichensetzung, ehrgeizigeren und ambitionierteren Zielen, angeschärften Kriterien, einer notwendigen Task-Force, einem Bundesbeauftragten für Wasserstoff, nach mehr IT-Kompetenz und smarten, verzahnten Ansätzen sowie Wasserstoff-Audits. Die Aufzählung ist beliebig erweiterbar. Allen Positionen ist gemeinsam, dass sie praktisch wirkungslos sein werden.

Der Wunderstoff

In der Handhabung erweist sich Wasserstoff als schwierig. Als Nummer eins im Periodensystem der Elemente und kleinstes Atom ist er diffusionsfreudig, schleicht sich durch die Metallgitter von Rohr- und Behälterwandungen, durch alle kristallinen Strukturen hindurch, indem es die Zwischengitterplätze nutzt. Dies führt im Wandungsmaterial auch zu Korrosion. Die notwendige Spezialbeschichtung treibt die Kosten.

Umgangssprachlich bezeichnet man Wasserstoff aus gutem Grund auch als Knallgas. Das beschreibt seine Reaktionsfreundlichkeit. Vier bis 76 Prozent Anteil in der Luft lassen ein Gemisch durchzünden, wenn ein Funken des Weges kommt. Das ist mit entsprechenden Maßnahmen beherrschbar, aber aufwändig. Funkenfreies Werkzeug dürfte noch die kleinste Kostenposition sein.

Zudem hat Wasserstoff einen geringen Energiegehalt, was große Volumina erfordert, die gehandhabt werden müssen. Die Druckerhöhung in den Verdichtern ist mit einem hohen spezifischen Aufwand verbunden, auch hier ist die Ursache die Winzigkeit der H2-Atome. Wasserstoff ist in elementarer Form schwer transportierbar, wenn Pipelines nicht genutzt werden können. Aufgrund des geringen Energieinhalts muss eine Hochverdichtung oder Tiefkühlung erfolgen. Der Schiffstransport erfordert eine Abkühlung auf mindestens minus 253 Grad, was hohen Energieaufwand, hohen Isolationsaufwand erfordert und Kälteverluste während des Transports mit sich bringt. Gegenwärtig existieren weltweit nur zwei Schiffe, die Wasserstoff transportieren können. Kostensenkend ist der Transport von Wasserstoff in Form seiner Derivate wie Methan, Methanol oder Ammoniak. Hier ist das Handling einfacher, jedoch sind die Prozesse zur Herstellung der Derivate und deren spätere Aufspaltung kostentreibend. Die entsprechende Infrastruktur in den Lieferländern wie auch bei uns wäre erst zu errichten und aufwändig zu betreiben.

Die Verbrennung von Wasserstoff ist ebenso nicht unproblematisch. Die Wasserstoffflamme ist kaum sichtbar, die Verbrennungstemperatur liegt bei 2.130 Grad (Erdgas: 1.970 Grad), was bei der Verbrennung mit Luft zu einer hohen Reaktionsfreudigkeit mit dem Luftstickstoff und hohen Stickoxidemissionen im Abgas führt. Diese Emissionen sind hinsichtlich der Grenzwerte des Bundesimmissionsschutzgesetzes (BImSchG) schwierig zu beherrschen, weshalb es noch keine wasserstofffähigen Gasturbinen am Markt gibt. Das ist technisch lösbar, wie eine Testmaschine von Kawasaki zeigt, aber bisher gab es mangels Wasserstoff schlicht keinen Bedarf für solche teureren Turbinen.

Die Verstromung in einer Brennstoffzelle erfolgt zu ähnlichem Wirkungsgrad wie bei der Elektrolyse (60 bis 70 Prozent). Auch hier ist nur ein konstanter Prozess optimal, hohe Materialpreise für die Membranen stehen der massenhaften Anwendung noch im Weg.

Solcher und solcher Strom

Ein scheinbar starkes Argument für die Produktion des teuren Energieträgers ist die Nutzung so genannten Überschuss-Stroms, der in den Sommermonaten immer häufiger anfallen wird. Natürlich kann man diesen nutzen, aber die Elektrolyseure arbeiten nur unter konstantem Stromfluss optimal. Für die Amortisation sind möglichst viele Betriebsstunden nötig. Einige hundert Stunden niedriger oder negativer Strompreise im Jahr dürften für einen Betrieb unter marktwirtschaftlichen Bedingungen nicht reichen. Aber aus marktwirtschaftlicher Sicht lässt sich eine Wasserstoffinfrastruktur dieser Größenordnung, die auf grünem Wasserstoff beruht, ohnehin nicht realisieren. Es wäre wie bei der Windkraft eine verstetigte Subventionswirtschaft aus „Klimagründen“, die uns im internationalen Wettbewerb benachteiligt.

Das „Westküstenprojekt“ in Schleswig-Holstein, getragen von drei durchaus potenten Firmen (Ørstedt, Raffinerie Heide, Hynamics Deutschland), starb im November 23 den Kostentod. Ein 30-Megawatt-Elektrolyseur sollte unter den lokal günstigen Bedingungen grünen Wasserstoff erzeugen, was sich aber nach internen Berechnungen als unwirtschaftlich herausstellte. Die Produktion von grünem Wasserstoff mache keinen Sinn, vor allem wegen der wirtschaftlichen Risiken, hieß es in der einer Pressemitteilung. Trotz der Fördermittel lohne sich ein dauerhafter Betrieb der Anlage wirtschaftlich nicht, so das Investoren-Konsortium. Wir erinnern uns an Ex-Wirtschaftsminister Altmaier, der im Rahmen seiner „Reallabore der Energiewende“ ebendieses Projekt mit 36 Millionen Euro förderte, weil er das Thema „fliegen sehen“ wollte. Das Geld ist nicht weg, es haben nur andere.

Auf zum nächsten Flop. Er heißt Hyscale 100 und soll auch in der Region Heide gebaut werden. 500 Megawatt Elektrolysekapazität werden mit 646 Millionen Euro gefördert. Bleiben wir im Norden: Auf dem Gelände des ehemaligen Kraftwerks Hamburg-Moorburg entsteht ein weiterer 100-Megawatt-Elektrolyseur. Die Kraftwerkskapazität im Großraum Hamburg nahm in den vergangenen 15 Jahren um zwei Drittel ab, man hofft auf Ersatz durch Windstrom. Ja, den gibt es. Zeitweise.

Der Stromspeichertraum

Über die gesamte Prozesskette Power-to-Gas-to-Power (P2G2P) ergibt sich ein desolater Wirkungsgrad von 20 Prozent, vielleicht auch etwas mehr. Für jede zurückgewonnene Kilowattstunde Strom muss also die fünffache Menge (Grün-) Strom vorher erzeugt werden. Hier können die Ökonomen den Stift beiseitelegen oder den Laptop zuklappen. Wer sich trotzdem der Mühe eigener Berechnung unterzieht wie Professor Vahrenholt, kommt auf irreal erscheinende Ergebnisse. Den Vertrag mit Ägypten zur Lieferung „grünen“ Ammoniaks zugrundelegend würde die Verstromung in Deutschland zu Gestehungskosten von 49 Cent pro Kilowattstunde führen. Dazu kommen dann Netzentgelte, Umlagen, Abgaben.

Auch auf der EU-Ebene hat der Realismus einen schweren Stand. Die „EU-Hydrogen Strategy“ wünscht sich bis 2030 zehn Millionen Tonnen grünen Wasserstoffs in der Gemeinschaft. Professor Markus Löffler und Tim Sumpf rechnen in der Epochtimes vor, dass die Elektrolyseure dafür 35 Stunden am Tag oder 530 Tage im Jahr laufen müssten.

Nun teilt der Europäische Rechnungshof mit: „Die EU (werde) ihre für 2030 gesetzten Ziele für Erzeugung und Import von erneuerbarem Wasserstoff voraussichtlich nicht erreichen.“ Gleichzeitig mahnten die Prüfer an, „die EU-Ziele einem Realitätscheck zu unterziehen“ und kritisieren weiter: Die Ziele seien nicht auf Grundlage solider Analysen erstellt worden, sondern nach politischem Willen festgelegt. Auch sei keine Abstimmung mit den Zielen anderer Länder erfolgt.

Der hohe Wasserbedarf für die Elektrolyse, mindestens neun Liter entsprechender Qualität pro Kilogramm H2, erfordert günstige Standorte oder entsprechende Wasseraufbereitung. Insbesondere im globalen Süden eine absolut kostentreibende Position. Selbst in Europa dürften potenzielle Elektrolysestandorte durch Wassermangel entfallen.

Nicht zuletzt: H2 ist ein Treibhausgas. Der Schlupf, die durch Undichtheiten an den Anlagen austretenden Mengen, würde die weitere globale Erwärmung beschleunigen, wenn man die regierungsamtliche Klimatheorie zugrundelegt.

Wie kommt es nun dazu, dass der Wasserstoff als einzige Zukunftsoption alternativlos verfolgt wird? Auch Politiker und –innen mit zweifelhaften Bildungsverläufen haben vermutlich ein Experiment aus dem Chemieunterricht im Gedächtnis, wo aus einem wassergefüllten Gefäß mit zwei darin platzierten Elektroden einige Bläschen lustig nach oben blubbern. Zurück bleibt der falsche Eindruck, dass es sich bei der Elektrolyse um einen einfachen Vorgang handelt. Aber

sowohl die Elektrolyse als auch die Umkehrung des Prozesses in der Brennstoffzelle oder die Verbrennung von Wasserstoff sind keineswegs simpel. Insbesondere die Materialfragen, mit denen Alterung und Verschleiß begegnet werden muss, erfordern hohen Forschungsaufwand und treiben bei großtechnischen Anlagen die Kosten. Deutschlandweit gibt es heute mehr als 50 Pilotanlagen Power-to-Gas (P2G), die nur mit Fördermitteln betrieben werden können und die vor allem mit den Fragen der Wirtschaftlichkeit der Prozesse zu kämpfen haben.

Die Wirtschaftlichkeit der Grünstromelektrolyse in Deutschland wird auch künftig nicht gegeben sein, da sie primär vom Strompreis abhängt und von einem kontinuierlichen, optimierten Betrieb der Anlagen.

Der grüne Kolonialismus

Eine typisch deutsche Eigenschaft ist die Absolutheit von Forderungen. So soll andersfarbiger Wasserstoff (s. unten), der nicht der Ökostrom-Elektrolyse entstammt, nicht akzeptiert werden. Aber hier gibt es inzwischen eine Aufweichung, wonach blauer Wasserstoff zunächst akzeptiert werden soll.

Der kalkulierte hohe Anteil an importiertem grünem Wasserstoff schafft Abhängigkeiten. Energiestrategisch begeben wir uns in Abhängigkeit von Ländern wie Ägypten, Marokko und Namibia und setzen uns einem Sanktionsrisiko aus. Der Ansatz, dem viele andere Länder folgen, nämlich hinsichtlich Ernährung und Energieversorgung möglichst unabhängig vom Ausland zu bleiben, wird in Deutschland verworfen.

In Fragen des Wasserstoffs betreiben wir sogar einen neuen Energiekolonialismus, was selbst die taz beklagt. Während wir uns für die Verbrechen der Kolonialzeit vor 120 Jahren heute noch, auch finanziell, entschuldigen, wollen wir nun namibische Nationalparks zerstören.

Die Abhängigkeit von Lieferungen aus arabischen Ländern wird auch eine wertegeleitete Außenpolitik beeinflussen. Kritik bezüglich der Menschenrechte sollte dann besser nicht geäußert werde, es könnte zu Lieferverzögerungen führen. Eine eskalierende internationale Lage könnte dann nicht nur zu einer Ölkrise wie 1973 führen, sondern auch zu einer Wasserstoffkrise für Deutschland. Unsere traditionelle Appeasement-Politik gegenüber islamischen Ländern würde verstärkt weitergeführt. Für Israel bleiben nur die Sonntagsreden.

Im unserem politischen Raum gehen Glauben vor Wissen, Ideologie und Lobbyismus vor Pragmatismus. Auch die Finanzen scheint niemand zu kalkulieren, denn große Investitionen in potenziellen Lieferländern müssten von Deutschland gestemmt werden. Natürlich hätten die Lieferländer auch ersten Zugriff auf die Ökoenergie, die dann erzeugt wird und die sinnvollerweise zunächst die Emissionen in den Lieferländern senken können.

Bei realistischer Betrachtung der Zeitschiene, der Kosten und der Fähigkeiten der uns schon länger Regierenden erweist sich die Wasserstoffstrategie nicht nur als flüchtig, sondern als ein großes Nichts. Oder eben Fantasy.

Anlage:

Wasserstoff Farbenlehre

 




Temperaturen und CO2 bis 500 Millionen Jahre zurück und kleine Tricks

von Prof. Dr. Horst-Joachim Lüdecke

Mittlere Erdtemperaturen und atmosphärische CO2-Konzentration über hunderte Millionen Jahre zurück zu ermitteln ist nicht einfach. Es lässt sich nur über sogenannte Proxydaten bewerkstelligen wie beispielsweise für Temperaturen über zeitabhängige Verhältniswerte von der Sauerstoffisotope 16O und 18O (hier) in Seewasserkarbonaten. Diese Methode wurde im paper von Christian Vérard und Jan Veizer [1] 2019 angewendet. Die erstellte Temperaturkurve reicht mehr als 500 Millionen Jahre zurück (Bild 1)

Bild 1: Globale Mitteltemperatur über etwa 500 Millionen Jahre zurück. Das delta18O der rechten y-Achse gibt die Sauerstoffisotopenverhältnisse an, die linke Temperaturachse zeigt die zu delta18O proportionalen Temperaturen. Der grauschattierte Bereich ist die hohe Ungenauigkeitsmarge der Temperaturkurve. Bild entnommen der Veröffentlichung [1].

Es gibt noch weitere Temperatur-Studien über derartig große Zeitspannen, wobei oft der bereits genannte Geophysiker J. Veizer (hier) mitbeteiligt war, der mir aus beidseitigem E-Mail-Austausch persönlich bekannt war. Bis jetzt sind mir keine Temperaturkurven des Phanerozoikum (hier) mit wesentlichen Abweichungen von der in Bild 1 gezeigten Zeitreihe bekannt.

Mit dem Blick auf die aktuelle CO2-Hypothese einer vermuteten anthropogenen globalen Erwärmung bestand ein weiterer Schritt in der Fachliteratur darin, zeitlich zugehörige CO2-Kurven den Temperaturreihen  gegenüber zu stellen, um Schlüsse auf Gegenwart und Zukunft zu ermöglichen. Die erste Referenz für phanerozoisches CO2 war der Klimaforscher Robert A. Berner (hier). In seiner Studie [2] von 2002 findet sich die atmosphärische CO2-Konzentration – genauer ihr Verhältnis zum vorindustriellen Wert von 280 ppm – bis knapp vor 600 Millionen Jahren. Sie ist in Bild 2 gezeigt.

Bild 2: Atmosphärische CO2-Konzentration bis knapp 600 Millionen Jahre zurück als Verhältnis zur vorindustriellen Konzentration von 280 ppm (rote Kurve). Die Ungenauigkeiten reichen bis +-50%. Bild entnommen aus der Veröffentlichung [2].

Im Jahr 2017 kam eine detailliertere CO2-Zeitreihe von Gavin L. Foster et al. [3] hinzu, die aber nur bis etwa 400 Millionen Jahre zurück reicht und in Bild 3 gezeigt ist. Auch bei ihr sind wieder die hohen Fehlermargen zu beachten. Stellt man die Unsicherheiten in Rechnung kann zwar von einer Verbesserungen der Kurve in Bild 2, aber nicht von einer maßgebend neuen Kurve die Rede sein.

Bild 3: Atmosphärische CO2-Konzentration (blau) bis etwas über 400 Millionen Jahre zurück. Bild entnommen aus der Veröffentlichung [3].  

Vergleicht man die Temperaturkurve in Bild 1 mit der CO2-Kurve in Bild 2 erkennt man bereits mit dem bloßen Auge, dass keine gute Korrelation von T und CO2 vorliegt. Das Gleiche gilt auch noch, wenn man anstelle der CO2-Kurve von Bild 2 die etwas detailliertere in Bild 3 nimmt. Noch immer ist daher die Kernaussage zahlreicher populärer Darstellungen von Temperatur T und CO2 für das Phanerozoikum gültig, dass keine gute Korrelation von T und CO2  vorliegt. Ein Beispiel für solche Darstellungen findet sich hier. Der Grund für die schlechte Korrelation von Temperatur und CO2 im Phanerozoikum liegt in der zyklischen Natur der Temperaturreihe, die 2003 von Nir J. Shaviv und Jan Veizer in einer bahnbrechenden Arbeit mit dem Klimaeinfluss der kosmischen Strahlung erklärt wurde [6]. Die Zyklenlänge beträgt dabei grob 150 Millionen Jahre. CO2-Zeitreihen weisen diese Zyklen nicht auf!

Aufgabe der Wissenschaft ist, das Bekannte zu verbessern oder gar umzuwerfen und durch Besseres oder Neues zu ersetzen. In diesem Sinne sieht sich offenbar die Studie der Autoren Emily J. Judd et al [4] von 2024. In ihr wird eine neue Temperaturkurve vorgestellt, die laut Textneschreibung mit der CO2-Kurve in Bild 3 verglichen wird. In Bild 4 ist die von Judd et al erstellte neue Temperaturkurve gezeigt. Sie unterscheidet sich zwar in Teilen von der T-Kurve in Bild 1, einen maßgebend neuen Verlauf weist sie aber nicht auf.

 

Bild 4: Die neue von Judd et al aufgestellte Temperaturkurve des Phanerozoikum.

Was die von Judd et al verwendeten CO2-Kurve btrifft, so steht im paper „The CO2 reconstruction is largely based on the data from Foster et al (das ist die hier angegebene Quelle [3] bzw. Bild 3) in the Paleozoic and Mesozoic, and the data from Rae et al in the Cenozoic [5]. Die Daten von Rae reichen allerdings nur bis 66 Millionen Jahre zurück. Figure 5 in der Arbeit von Rae et al zeigt keine mit dem Auge erkennbaren Unterschiede zur CO2-Kurve von Foster et al. Fazit: Judd et al vergleichen wie schon erwähnt ihre neue Temperaturkurve (Bild 4) mit der CO2-Kurve von Foster et al (Bild 3), wobei letztere grob der CO2-Kurve von Berner (Bild 2) entspricht.

Glücklicherweise hat bereits die inzwischen bekannt gewordene CO2-Coalition (hier, hier) die neue Judd et al – Temperaturkurve zusammen mit den CO2-Daten von Berner in einer schön gestalteten neuen Grafik eingetragen und mir daher mühsame Grafikarbeit erspart (Bild 5).

Bild 5: Phanerozoische Temperaturen von Judd et al (Bild 4) und CO2 von Berner (Bild 2). Von guter Korrelation kann immer noch keine Rede sein. Daran ändert sich auch nichts, wenn man anstelle der Berner CO2-Kurve die von Foster et al in Bild 3 nimmt. Bildquelle CO2 Coalition.

Eine Verbesserung durch detailliertere Temperatur- und CO2-Daten kann man Judd et al angesichts ihrer Fleißarbeit sicher nicht absprechen. Der maßgebende Kernpunkt, nämlich die schlechte Korrelation von Temperatur und CO2, ändert sich mit ihrem paper aber nicht, zumindest schon deswegen nicht, weil phanerozoische CO2 – Kurven keinen 150  Millionen Jahreszyklus aufweisen.

Auch kleine Verbesserungen sind in der Wissenschaft nicht nur wichtig sondern sogar die Regel. Wirkliche Umbrüche sind dagegen extrem selten. Damit könnte man die Arbeit von Judd et al nun zur Seite legen und sich anderen Themen widmen.

Leser allerdings, die sich aber Mühe gemacht haben das paper von Judd et al vollständig zu lesen, kommen vermutlich aus dem Staunen nicht heraus. Die vor dem eigentlichen Teil „Research Article“ im paper aufgeführten Abschnitte Introduction, Rationale, Results und Conclusion erzählen nämlich eine völlig andere Geschichte. Judd et al behaupten Folgendes:

  1. In Results: Die Werte ihrer neuen Temperaturkurve variieren zwischen 11° und 36 °C über die letzten 485 Millionen Jahre, und diese Spanne sei größer als die aller bisherigen Rekonstruktionen!
  2. Nochmal in Results: Es gäbe eine gute Korrelation zwischen Temperatur und CO2 im Panerozoikum!
  3. In Conclusion: CO2 sei der dominante Treiber des phanerozoischen Klimas, hier also von Temperatur.

Diese Aussagen sind angesichts der oben geschilderten Ergebnisse im paper von Judd et al mehr als überraschend und verlangen eine Überprüfung. Enthält das paper von Judd et al vielleicht doch maßgebend Neues?

Zu Punkt 1: Zur Überprüfung braucht man nur die neue Temperaturkurve in Bild 4 mit der alten in Bild 1  zu vergleichen und die Ungenauigkeiten zu berücksichtigen. Die von Judd et al angegebenen Grenzen 11° – 36 °C stimmen dann für beide Kurven grob überein. Die Behauptung im paper von von Judd et al über einmalig hohe aufgefundene Grenzen trifft daher m.E. nicht zu!

Zu Punkt 2 und 3: Zur Überprüfung suche man zuerst im paper von Judd et al das gut korrelierte Analogon zum schlecht korrelierten in Bild 5. Es findet sich als Fig. 4 Teilbild A, das hier als Bild 6 A noch einmal separat gezeigt ist.

 

Bild 6: Mit Teilbild A wollen Judd et al die gute Korrelation von Temperatur und CO2 belegen. Das Auge scheint es zu bestätigen.

Was stimmt da nicht? Zuerst einmal ist die CO2-Kurve in Bild 6 A eine andere als die im Text von Judd et al behauptete Kurve von Foster et al. Dazu reicht bereits das unbewaffnete Auge. Welche CO2-Kurve hier von Judd et al genommen wurde bzw. wie diese Kurve entstand, wird im Text des papers nicht gesagt. Das ist aber noch nicht alles. In Bild 6 A sind die Skalen der beiden verglichenen Kurven unnötig zusammengequetscht, um dem Auge etwas nachzuhelfen.

Das ist prinzipiell nicht verwerflich, weil die Pearson-Korrelation (hier) gegen beliebige lineare Transformationen der verglichenen Zeitreihen immun ist. Man kann sie mit beliebigen Faktoren multiplizieren, oder in der y-Richtung beliebig verschieben, und man kann ihre Skalen beliebig stauchen oder strecken. Die Pearson-Korrelation der beiden Zeitreihen ändert sich dadurch nicht. Der Trick ist gut bekannt. Man knetet die Skalen so lange und verschiebt die Kurven geeignet in y-Richtung, bis das Auge eine „bessere“ Korrelation meldet, obwohl die wirkliche Korrelation die gleiche geblieben ist. Natürlich soll dieses „Verfahren“ den Autoren Judd et al hier nicht unterstellt werden.  Besser wären aber bei etwas mehr Höhe für die Grafik Bild 6 A voll die Grafikhöhe ausnutzende Skalen gewesen.

Dies führt weiter zur wissenschaftlichen Kritik am paper von Judd et al. Eine detaillierte Begründung für die Verwendung der in ihrer Herkunft nicht ausreichend spezifizierten CO2-Kurve in Bild 6 A wäre unabdingbar gewesen. Der Begriff „Korrelation“ von T und CO2 wurde im Abstract des Judd et al papers explizit benutzt. Zumindest eine Diskussion über die Gründe der bisherigen schlechten Korrelation von T und CO2 in früheren Veröffentlichungen im Gegensatz zu der nun angeblich guten Korrelation wäre angebracht gewesen, denn schließlich sind die o.g. Punkte 2 und 3 als Werbung für das paper zu verstehen. Nichts dergleichen ist in der Arbeit von Judd et al zu finden.

Als Schlussbemerkung sei auch einmal auf weniger beachtete Ursachen der Schwankungen der mittleren Globaltemperatur über alle Zeitskalen hingewiesen. Verglichen mit der CO2-Hypothese werden sie nur stiefmüterlich in der Fachliteratur behandelt und unzureichend mit Forschungsmitteln versehen. Die hier zitierten Arbeit von Shaviv und Veizer ist bereits ein erstes Beispiel für den phanerozoischen Zeitbereich. Die allgemein akzeptierte Milankowitsch-Theorie für die Eiszeiten der letzten 2 Millionen Jahre ist ebenfalls zu nennen (hier folgt das CO2 übrigens der Meerestemperatur um etwa 1000 Jahre und kann daher nicht Ursache der Temperaturen sein [7]).

Für die wichtigeren kürzeren Zeitspannen bis hin zu wenigen Jahrzehnten ist aber bislang noch viel zu wenig geschehen. Der Schwerpunkt wissenschaftlicher Forschung sollte sich vorteilhaft allmählich etwas weg von der Erforschung des immer noch weitgehend unbekannten Klimmaeinfluss durch anthropogenes CO2 auf die Erforschung natürlicher Klimaeinflüsse verlagern. Als die interessantesten Themen sind der zyklischen Klimaeinfluss der Sonne über kosmische Strahlung und Wolkenbildung (hier) und die Klima- und Wetterauswirkungen der inzwischen immer besser bekannten und dokumentierten Ozeanzyklen zu nennen.

Quellen

Hinweis: alle hier aufgeführten Quellen sind in Google Scholar zu finden. Dazu nur den Titel der Arbeit ins Suchfenser eingeben. Alle hier angegebenen Arbeiten haben ein freies pdf, dazu rechts oben auf pdf klicken.

[1] Vérard, C. & Veizer, J., 2019. On plate tectonics and ocean temperatures. The geological society of America.

[2] Berner, R.A., 2003. The long-term carbon cycle, fossil fuels and atmospheric composition. Nature, 426.

[3] Foster G.L. et al., 2017. Future climate forcing potentially without precedent in the last 420 million years, nature communications, 8:14845.

[4] Emily J. Judd et al., 2024. A 485-million-year history of Earth’s surface temperature. Science 385, 1316.

[5] Rae, J.W.B. et al., 2021. Atmospheric CO2 over the past 66 Million years from marine archives. Annual Review of Earth and planetary sciences,  49:509-41.

[6]  Shaviv, N.J. & Veizer, J., 2003. Celestrial driver of phanerozoic Climate? GSA today, 13.7, 4-10.

[7] Caillon, N. et al., 2003. Timing of atmospheric CO2 and Antarctic temperature changes across Termination III. Science, 299(5613), 1728-1731.