Im Wasserstoffwirtschafts-Delirium (2)

Wasserstoff wird heute als Wundermittel der Energiewende gehandelt. Mit ihm sollen angeblich die Speicher-Probleme von Wind- und Sonnenenergie gelöst werden. Im 2. Teil einer Mythenkiller-Reihe über den „Hochlauf der grünen Wasserstoffwirtschaft“ in Deutschland geht es um die Gefährlichkeit.

Von Manfred Haferburg

Was hat der Zeppelin Hindenburg in Lakehurst mit dem Raumschiff „Challenger“ und den Turbinengebäuden der Reaktorblöcke in Fukushima gemeinsam? Sie wurden durch die Explosion von Wasserstoff zerstört. Wasserstoff wird als die Wunderwaffe der Energiewende gehandelt, hat aber offensichtlich ein großes Zerstörungspotenzial. Dieses Element soll den Verkehr, das Heizen, die Stromerzeugung, aber auch die Industrie umweltfreundlicher, das heißt kohlendioxidfrei machen.

Wasserstoff ist das kleinste und häufigste Element des Universums. Es ist das chemische Element mit der geringsten Atommasse. Sein häufigstes Isotop enthält kein Neutron, sondern besteht aus nur einem Proton und einem Elektron. Anders als auf der Sonne, dem Saturn oder Jupiter kommt das farb- und geruchslose Gas auf der Erde fast ausschließlich in gebundener Form vor: Es steckt in fossilen Rohstoffen wie Erdgas und Erdöl sowie in über der Hälfte aller bekannten Mineralien. Und wie sein Name und sein chemisches Symbol „H2“ bereits sagt, ist Wasserstoff auf der Erde vor allem in H2O, also in Wasser, gebunden.

Wasserstofferzeugung

Wasserstoff wird heute hauptsächlich mittels Dampfreformierung aus Erdgas gewonnen. Dabei wird viel CO2 freigesetzt, was ihn nicht so umweltfreundlich macht wie gemeinhin gedacht. Alternativ kann Wasserstoff auch mit Strom im Elektrolyseverfahren erzeugt werden. Dabei wird Wasser in Wasserstoff und Sauerstoff aufgespalten. Verwendet man dabei ausschließlich Strom aus regenerativen Quellen, gilt der Wasserstoff als CO2-frei und heißt „grüner Wasserstoff“.

Wasserstoff im Transportwesen

Technologisch hat sich im Wasserstoff-Fahrzeugbau der Brennstoffzellenantrieb durchgesetzt. Er funktioniert wie ein umgedrehter Elektrolyseur: Wasserstoff wird mit Sauerstoff aus der Umgebungsluft in Wasser und Strom aufgespalten. Ersteres sickert aus dem Auspuff, letzterer treibt einen Elektromotor an. Brennstoffzellenautos sind also auch E-Fahrzeuge. Im Vergleich zu den reinen Batteriefahrzeugen versprechen sie aber eine größere Reichweite und lassen sich fast ebenso schnell betanken wie ein Verbrenner – so die Argumente der Wasserstoffbefürworter.

Wasserstoff soll auch Flugzeuge und Schiffe antreiben. Über lange Distanzen werden wir Menschen und Waren auch in fernerer Zukunft nicht vollelektrisch ans Ziel fliegen oder große Schiffe bewegen können. Denn dazu sind Batterien zu groß und zu schwer. Neben Biokraftstoffen setzt die Politik ihre Hoffnungen daher auf Wasserstoff.

Wasserstoff für die Industrie und Stromproduktion

Mit einem Anteil von 25 Prozent ist die Industrie der zweitgrößte CO2-Produzent in Deutschland – noch vor dem Verkehr, der 20 Prozent beisteuert. Künftig soll Wasserstoff die Produktion von Stahl, Treibstoffen und Grundchemikalien klimafreundlicher machen. Doch auch ein großer Teil des Stroms, der etwa 25 Prozent des Primärenergiebedarfs ausmacht, soll mit Wasserstoff-Gasturbinen erzeugt werden, wenn Wind und Sonne nicht zur Verfügung stehen. Die Mengen an Wasserstoff, die dafür gebraucht werden, erscheinen schier ungeheuerlich.

Die Bombe an Bord

Es hört sich so einfach an. Mit dem grünen Wasserstoffauto an die Tankstelle fahren, in drei Minuten volltanken, und auf geht’s zur Langstrecke. Doch so einfach ist das nicht. Wasserstoff muss nämlich entweder gasförmig unter hohem Druck (350 bar oder 700 bar) oder flüssig bei minus 253 Grad Celsius gespeichert werden. Die Automobilbranche setzt auf den Einsatz von Drucktanks, bei denen das Druckniveau bis zu 700 bar beträgt. In Brennstoffzellenfahrzeugen kommen kohlefaserummantelte Behälter aus Aluminium oder Kunststoff zum Einsatz.

Schon ein Behälter mit einem Innendruck von 700 bar stellt ein Sicherheitsrisiko dar. 700 bar entspricht dem Druck einer 7 km tiefen Wassersäule. Wenn ein Behälter mit 700 bar Innendruck beschädigt wird, knallt es ganz erheblich. Dazu kommt noch das Knallgasrisiko der austretenden Wasserstoffwolke. Ein Wasserstofftank stellt bei einem schweren Unfall eine Bombe an Bord dar.

Betrachten wir mal einige kritische Risikofaktoren durch die Eigenschaften des kleinsten aller Moleküle:

Explosivität: Wasserstoff kann in seiner Reinform nicht explodieren. Das Risiko entsteht jedoch, wenn Wasserstoff in Kontakt mit Luft gerät. Treffen Wasserstoff und Sauerstoff aufeinander, reagieren sie explosiv. Diese Gefahr besteht, wenn Wasserstoff in einer Konzentration zwischen 4 und 77 Volumenprozent in der Luft liegt. Das bedeutet: Wenn Wasserstoff entweicht, kann bereits ein statischer Funke an der Kleidung ausreichen, um eine Explosion auszulösen.

Unsichtbare Flamme: Die Wasserstoff-Flamme ist sehr blass und bei Tageslicht nicht oder kaum sichtbar. Sie gibt wenig von der Infrarotstrahlung ab, die Menschen als Wärme wahrnehmen und kann daher nicht als solche empfunden werden. Sie emittiert erhebliche ultraviolette Strahlung. Daher sind spezielle UV-Detektoren erforderlich, um auf das Vorhandensein von Wasserstoff-Flammen hinzuweisen.

Leckagen: Aufgrund seiner geringen Molekülgröße und niedrigen Viskosität kann Wasserstoff schnell aus Druckgasleitungen und -behältern austreten. Wasserstoff kann sogar durch Stahlwände kriechen. Neben der richtigen Auslegung und Konstruktion sind Instandhaltung und regelmäßige Inspektionen unbedingt notwendig, um die Sicherheit einer Anlage zu gewährleisten. Stationäre Gasmesstechnik und Frühwarnsysteme sorgen für zusätzliche Sicherheit.

Materialversprödung: Wasserstoff ist das kleinste aller Moleküle und kann leicht durch Materialien dringen und diese in manchen Fällen verspröden. Die richtige Auswahl, Handhabung und Instandhaltung von Materialien sind entscheidend. Aus diesem Grund werden für Lagertanks in der Regel Edelstahl und Verbundwerkstoffe verwendet.

Gaswolken: Wie Ammoniak und Methan hat auch Wasserstoff eine geringere Dichte als Luft und bildet bei Undichtigkeiten Gaswolken an Innendecken. Diese neigen zu Explosionen. Gasmesstechnik in Garagen wird daher in der Regel oben installiert.

Geruchlos und farblos: Wasserstoff hat keinen Geruch und keine Farbe, ist also für den Menschen nicht wahrnehmbar. Bei Methan wird dieses Problem durch die Zugabe von Duftstoffen entschärft. Ob dies auch bei Wasserstoff möglich ist, wird derzeit erst erforscht. Gas- und Leckagedetektoren sind hier unerlässlich.

Wenn man sich vorstellt, dass Millionen von harmlosen Laien bezüglich des Umgangs mit einem hochexplosiven Gas auf diese Technologie bei 40 Millionen Personenkraftwagen, vier Millionen Lastkraftwagen und Millionen von Landwirtschafts- und Baumaschinen losgelassen werden, fragt man sich unwillkürlich, mit wie vielen Wasserstoff-Austritten pro Tag gerechnet werden muss. Wird es Idioten geben, die versuchen, Wasserstoff aus Tanks zu klauen? Wie viele Tanks fliegen bei den 6.000 Verkehrsunfällen pro Tag in Deutschland in die Luft? Auch an die Wartung der Tanks, Tanksäulen und Kraftstoffleitungen werden Ansprüche gestellt, die mit einem Benzin- oder Dieselkraftstoffsystem, das weitestgehend drucklos funktioniert, nicht im Geringsten vergleichbar ist. Auch sind Benzin und Diesel zwar brennbar, bilden aber mit Luft nicht gleich so ein hochexplosives Gemisch wie Wasserstoff.

Ich bin überzeugt, dass eine übers ganze Land verbreitete Wasserstoffwirtschaft um ein Vielfaches gefährlicher ist als die Stromerzeugung durch Kernenergie in den Händen lizenzierter Operateure und streng überwachter Betreiber. Aber auch hier gilt die grüne Risikophilosophie: „No pain, no gain“. Na dann: Guten Flug.

Im nächsten und letzten Beitrag dieser Reihe widmet sich der Autor den Problemen bei der Beschaffung der Unmengen des für die komplette Dekarbonisierung benötigten Wasserstoffs.

 




Grohnde: Dubai will Kernkraftwerke, die Grünen zerstören sie

Während die Welt in Dubai beschlossen hat, mehr Kernkraftwerke zu bauen, erklärt PreussenElektra daheim, dass bald mit dem Abriss des Kernkraftwerks Grohnde begonnen wird. Die Atomkraft sei in Deutschland „Geschichte“ jubelt der grüne Umweltminister Niedersachsens. 

Von Holger Douglas

Jetzt wird mit der Zerstörung des Kernkraftwerks Grohnde (KWG) in Niedersachsen begonnen. Das Niedersächsische Ministerium für Umwelt, Energie und Klimaschutz habe jetzt die hierzu erforderliche Genehmigung nach § 7 Abs. 3 des Atomgesetzes erteilt, so Betreiber PreussenElektra am Montag in einer Pressemitteilung.

Vor knapp zwei Jahren wurde das Kernkraftwerk zusammen mit den beiden anderen Kraftwerken Brokdorf und Gundremmingen abgeschaltet. Grohnde hat seit 1985 etwa 15 Prozent des Stroms in Niedersachsen produziert, die jetzt fehlen und teuer eingekauft werden müssen. Das Kernkraftwerk war besonders produktiv und hat den Weltrekord in der Stromproduktion eingefahren, hätte noch sicher und zuverlässig viele weitere Jahre Energie liefern können.

Seitdem wurde der Primärkreislauf des Druckwasserreaktors mit Spülungen dekontaminiert und die »personelle Organisation« angepasst, also qualifiziertes Kraftwerkspersonal entlassen und in den Vorruhestand geschickt.

Treppenwitz: Die große Industrieanlage »Kraftwerk« selbst benötigt erhebliche Mengen Strom, die müssen jetzt von anderen Kraftwerken erzeugt werden. Wörtlich heißt es in der Mitteilung:

„Mit dem KWG befinden sich nun alle drei niedersächsischen Anlagen der PreussenElektra im Rückbau: Im Kernkraftwerk Stade habe jüngst der konventionelle Abbruch von Kraftwerksgebäuden begonnen, im Kernkraftwerk Unterweser laufe der Rückbau auf Hochtouren. Mit dem Wissen aus diesen Rückbauprojekten sind wir bestens gerüstet und überzeugt, so Guido Knott, Vorsitzender der Geschäftsführung der PreussenElektra, den nuklearen Rückbau des KWG wie geplant Anfang 2037 abschließen zu können.“

Der derzeitige grüne Umweltminister von Niedersachsen, Christian Meyer, jubelt in einer Pressemitteilung: »Atomkraft ist in Deutschland Geschichte. Der Beginn der Stilllegung und des Rückbaus des am 31.12.2021 abgeschalteten Atomkraftwerks in Grohnde ist ein wichtiger Meilenstein für Niedersachsen. Wir setzen damit den vor zwölf Jahren beschlossenen Atomausstieg konsequent um und sorgen für ein Höchstmaß an Sicherheit für den Rückbau.«

Stattdessen sollen die Flächen für Windräder verdoppelt werden. Denn die rot-grüne Landesregierung in Niedersachsen hat jetzt noch einmal das »Klimagesetz« verschärft und will der Windradindustrie zu mehr Umsatz verhelfen. Das Land verfolge nun das ambitionierte Ziel, bis zum Jahr 2040 treibhausgasneutral zu werden. Das wird Meyer nicht mehr erleben, zumindest nicht als Minister. Vielleicht nur die Rolle rückwärts, wenn die Kraftwerke wieder aufgebaut werden müssen, weil nicht mehr genügend Strom vorhanden ist.

Das verfügbare CO2-Budget werde noch einmal deutlich reduziert, heißt es drohend in Richtung Industrie und Verbraucher. Niedersachsen will noch mehr Windräder und Photovoltaikanlagen und behauptet, damit die internationalen Klimaziele zu erfüllen. Allerdings kann Meyer damit noch nicht einmal die Energieversorgung für das eigene Land sichern.

Der grüne Abbruchminister hat nicht richtig mitbekommen, dass die sogenannte »Weltgemeinschaft« gerade in Dubai ankündigte, die Kernkraft verdreifachen zu wollen. Die hat mit Blick auf Deutschland nur eine Bemerkung übrig: plemplem geworden.

 




Vorschlag: Nach dem Ausgang der COP28 sollten wir die Adjektive „fossil“ und „erneuerbar“ aus unserem Wortschatz tilgen.

Edgar L. Gärtner

Trotz aller Wortakrobatik in dem mit Verspätung verabschiedeten Abschlussdokument des 28. „Weltklimagipfels“ im ölreichen Wüstenstaat Dubai können wir davon ausgehen, dass die Verteufelung „fossiler“ Energierohstoffe durch den Meinungsterror einer Grünen Selbstmordsekte nun bald ein Ende finden wird. Das vom Abschlussplenum der Mammut-Konferenz mühsam ausgehandelte zentrale Dokument fordert, der Abschied von „fossilen Energieträgern in den Energiesystemen“ solle in „gerechter, geordneter Weise“ geschehen. Das lässt viel Spielraum für Interpretationen. Von einem „Phase out“ der „fossilen“ Energieträger ist nicht mehr die Rede. Ohnehin können sich die Länder, die hauptsächlich vom Export „fossiler“ Rohstoffe leben, über mangelnde oder abnehmende Nachfrage nicht beklagen.

Noch immer bekommen beim Schlagwort „erneuerbar“ die meisten Deutschen leuchtende Augen. Glaubt man Meinungsumfragen, so hätte eine Mehrheit der Deutschen gerne so rasch wie möglich eine Energieversorgung, die zu hundert Prozent auf „Erneuerbaren“ beruht. Ein wachsender Teil der Befragten akzeptiert unter diesem Oberbegriff allerdings inzwischen auch die Kernenergie. Da hilft es wenig darauf hinzuweisen, dass es nach den Gesetzen der Physik in der irdischen Welt überhaupt keine erneuerbare Energie geben kann, weil jede Form hochwertiger, zur Arbeitsleistung tauglicher Energie sich nach getaner Arbeit in nutzlose, das heißt diffuse Abwärme verwandelt. Aber die Unterscheidung zwischen erneuerbaren und nicht erneuerbaren Ressourcen hat sich inzwischen so fest im allgemeinen Sprachgebrauch eingebürgert, dass man meinen könnte, sie gehe auf den Schöpfer selbst zurück.

Doch bei genauerem Hinsehen erweist sich diese Unterscheidung in der Praxis schlicht als unsinnig. (Ich beziehe mich dabei auf einen Beitrag, den ich schon im Jahre 2011 auf meinem leider nicht sehr eifrig besuchten Zweit-Blog veröffentlichte.) Noch keine einzige für erschöpfbar erklärte Ressource wie Öl, Erdgas, Uran, Gold, Silber und selbst das tatsächlich knappe Phosphat ist uns bislang ausgegangen. Im Gegenteil: Gerade bei Erdgas haben sich die sicheren Reserven in letzter Zeit mindestens versechsfacht. Dafür gibt es etliche Beispiele so genannter erneuerbarer Ressourcen (vor allem Tier- und Pflanzenarten wie zum Beispiel Speisefische wie der Zackenbarsch und der Kabeljau oder auch Nutzhölzer und Heilpflanzen), die von Menschen nahezu vollständig aufgebraucht beziehungsweise endgültig ausgerottet wurden. Verbindet man gar die Begriffe „erneuerbar“ und „Natur“ miteinander, wird die Konfusion komplett: Holzkohle ist im Prinzip ein erneuerbarer Energieträger. In der Praxis wurden durch die Holzkohleherstellung aber ganze Gebirge entwaldet und Urwälder unwiderruflich zerstört. Naturdünger wie Guano oder Kuhmist sind im Prinzip erneuerbar. Dennoch kam es im 19. Jahrhundert weltweit zu einem Stickstoffmangel in den Ackerböden, weil die Naturdünger-Vorräte nicht mit der Industrialisierung und der Bevölkerungsentwicklung Schritt halten konnten. Die heutigen Stickstoff-„Kunstdünger“ jedoch sind im besten Sinne erneuerbar, denn Stickstoff kann mithilfe der Ammoniaksynthese nach dem Haber-Bosch-Verfahren unbegrenzt aus der Luft gewonnen werden. Und denitrifizierende Bakterien führen ihn bei der Verrottung von Pflanzenmaterial wieder von den Böden zurück in die Atmosphäre.

Auch bei Ressourcen wie Erdöl und Erdgas hilft die gängige Unterscheidung zwischen „erneuerbar“ und „fossil“ nicht weiter. Lange Zeit glaubten die meisten westlichen Geologen, dass fossile Kohlenwasserstoffe nur aus abgestorbener Biomasse entstehen können und daher in wenigen Jahrzehnten erschöpft sein werden. Nach der 1972 veröffentlichten Studie „Grenzen des Wachstums“ im Auftrag des Club of Rome sollte das Erdöl bereits um die Jahrtausendwende vollständig erschöpft sein. Heute kann sich jeder davon überzeugen, dass diese Hochrechnung auf einem Irrtum beruhte. Anton Kolesnikov, Vladimir G. Kutcherov und Alexander F. Goncharov von der Washingtoner Carnegie Institution, der Moskauer Lomonossow Universität und des Königlich schwedischen Technologie Instituts in Stockholm haben schon vor über einem Jahrzehnt durch ein aufwändiges Experiment demonstriert, dass Erdöl unter den Bedingungen, wie sie im oberen Erdmantel herrschen, das heißt unter hohem Druck und einer Temperatur von über 1000 Grad Celsius, auch ohne die Gegenwart fossiler Biomasse aus normalen Bestandteilen der Erdkruste wie Methan und Carbonaten (Kalkgestein) entstehen kann. Sie konnten damit schon damals die zunächst als „gewagt“ geltende Hypothese des als Tausendsassa bekannten österreichisch-amerikanischen Ingenieurs und Erfinders Thomas Gold bestätigen.

Seit der Bestätigung der Kontinentaldrift-Hypothese des deutschen Geografen Alfred Wegener ist ohnehin klar, dass alles, was sich auf der Erdoberfläche befindet, in geologischen Zeiträumen mit Platten der Erdkruste, die sich ruckartig unter benachbarte Platten schieben (Subduktion), irgendwann einmal im oberen Erdmantel landet, wo es eingeschmolzen und später in Form von Ausgasungen und Vulkanausbrüchen wieder an die Oberfläche gelangen kann. Heute gehen vor allem russische Geologen davon aus, dass die Erdölvorkommen sowohl durch biotische als auch durch abiotische Stoffumwandlungen im oberen Erdmantel gespeist werden. Das bedeutet: Auch die Erdöl- und Erdgasvorkommen sind zumindest teilweise, vielleicht sogar in Gänze erneuerbar. Tatsächlich wurde auch wiederholt beobachtet, dass sich wegen Erschöpfung aufgegebene Erdöllagerstätten nach einiger Zeit wieder aufgefüllt haben. In Südhessen gibt es dafür ein Beispiel.

Fazit: Längst nicht alles, was Grüne für „erneuerbar“ erklären, kann tatsächlich nachhaltig genutzt werden. Dafür gibt es auf der andern Seite Ressourcen, die von den Grünen verteufelt werden, aber in Wirklichkeit eine längerfristige Basis der wirtschaftlichen Entwicklung darstellen könnten. Dazu gehört neben Erdöl und Erdgas auch die am ehesten als „erneuerbar“ zu bezeichnende Energieressource, das strahlende und hochgiftige Schwermetall Plutonium. Was als „erneuerbar“ gilt, ist also weitgehend Definitionssache. Die Definitionsmacht liegt allerdings zurzeit (noch) bei den Grünen aller Parteien. Daraus erklärt sich die Verbissenheit, mit der die Grünen gegen den Bau der nuklearen Wiederaufbereitungsanlage Wackersdorf in der Oberpfalz und gegen den schnellen Brüter „Super-Phénix“ bei Creys-Malville an der Rhône kämpften. Dort wagten sie sogar einen Angriff mit ins Land geschmuggelten sowjetischen Raketen.

Im Grunde hätte schon der Ausgang des Experiments „Biosphäre 2“ in Arizona zeigen können, dass das geschlossene Weltbild der Grünen einfach nicht stimmt und die Unterscheidung zwischen „erneuerbaren“ und „fossilen“ Ressourcen unsinnig ist. Ich plädiere also dafür, den Begriff „fossil“ nur noch für echte Fossilien im Sinne der Paläontologie zu verwenden.

 




Knapp 70% Ausfall: Vorindustrielle Temperaturdaten sind mehr oder weniger frei erfunden

von ScienceFiles

70% der Erde sind mit Wasser bedeckt.

Ozeane sind für den Temperaturhaushalt der Erde von großer Bedeutung, nicht nur, weil z.B. Ströme wie der Golf-Strom für recht angenehme Temperaturen in diesem Fall auf den britischen Regeninseln sorgen.

Man würde also annehmen, dass die Oberflächentemperaturen des Meeres dann, wenn vorgegeben wird, dass eine GLOBALE TEMPERATUR für den gesamten Planeten berechnet wird, eine entsprechende Bedeutung zukommt.
Die entsprechende Bedeutung übersetzt sich in Messpunkte, geographische und zeitliche, die die Daten für Behauptungen einer steigenden Temperatur auf dem Planeten SEIT VORINDUSTRIELLER ZEIT zur Verfügung stellen.

Denn: Die VORINDUSTRIELLE ZEIT ist der Dreh- und Angelpunkt der Klimawandel-Erzählung. Nur dann, wenn Menschen damit beginnen, in großem Stil CO2 zu emittieren und diese große Menge mehr oder minder zu einem bestimmten Zeitunkt beginnt und nur dann, wenn diese Emissionen mit einer steigenden Temperatur des Planeten einhergehen, kann überhaupt ein Zusammenhang zwischen CO2 und steigenden Temperaturen hergestellt werden. Ob dieser Zusammenhang dann eine Kausalität oder Rauschen abbildet, ist eine andere Frage.

Aus diesem Grund sind Temperaturmessungen VOR BEGINN der industriellen Revolution, das ist in den Daten der entsprechenden Klima-Erzähler, gemeinhin der Zeitraum von 1850 bis 1900 von erheblicher Bedeutung, denn ohne diese Temperaturmessungen stürzt die ganze Klimawandel-CO2-Erzählung in sich zusammen.

In zwei vorausgehenden Posts haben wir bereits gezeigt, dass Temperaturmessungen an Land für den Zeitraum von 1850 bis 1900 vornehmlich Messungen in den USA und Kanada sind, während Asien, Afrika, Südamerika überhaupt nicht oder nur in sehr geringem Umfang mit Daten zur vermeintlichen Messung der globalen Temperatur beitragen.

Ein genauer Blick auf die wenigen Daten aus Europa zeigt, dass vor allem aus Ländern mit kälterem Klima, wie Schweden, Norwegen oder Russland, Temperaturmessungen für den Zeitraum von 1850 bis 1900 vorhanden sind, während südliche Länder entweder überhaupt keine Berücksichtigung finden (Griechenland und die Türkei zum Beispiel) oder lediglich einen Messzeitpunkt zum gesamten Zeitraum beisteuern (wie Italien, Portugal und Spanien).

Schon die Messungen, die für 30% Landmasse der Erde vorhanden sind, erlauben eigentlich nur demjenigen die Behauptung aufzustellen, er könne die globale Temperatur berechnen, der Lauterkeit schon seit jeher im Bereich ihm unverständlicher Fremdworte führt. Indes, die Erzählung der globalen Erwärmung, die über den Klimawandel zur Klimakrise eskaliert wurde, steht auf noch tönernen Füßen, immerhin fehlen noch 70% der Erde, die Temperaturdaten liefern können.

Vor diesem Hintergrund haben wir uns auf die Suche nach den Daten gemacht, die Aufschluss über die Temperatur auf Weltmeeren geben können, und zwar für diese Temperatur in vorindustrieller Zeit, also ab 1850 und bis 1900. Die entsprechenden Daten haben wir – dieses Mal nach etwas Suche – bei Copernicus gefunden. Die folgende Seite stellt den Stand der Daten bzw. die umfassende Misere dessen, was Temperaturmessung sein soll, in ihrem ganzen Elend dar.

Gehen wir die Seite der Reihe nach durch.

Die Abbildung im Kasten zu Beginn der Seite gibt eine Einschätzung ab, wie viele Messungen jeweils für Quadranten von einem Grad Länge und einem Grat Breite vorliegen. Je röter der “Datenpunkt”, desto weniger Messungen. Je gelber der Datenpunkt, desto häufiger die Messung.

Das sind offenkundig Angaben, mit denen man herzlich wenig anfangen kann. Gehen wir daher in die Zahlen: 1.380.628 Beobachtungen liegen für den Zeitraum von 1850-1925 vor, wie man der Legende zu Beginn der Seite entnehmen kann. Das entspricht 53 Messungen pro Tag, die 70% der Oberfläche der Erde repräsentieren sollen. Wie absurd bereits dieses Ergebnis ist, wird schnell deutlich, wenn man bedenkt, dass die Erde in 180 Breiten- und 360 Längengrade eingeteilt ist, was 64.800 Quadranten zu je einem Längen- und Breitengrad zur Folge hat, davon – der einfachhheit halber auf Basis von 70% Weltmeeranteil an der Oberfläche der Erde: 45.360 Quadranten im Meer. 53 davon werden im Durchschnitt der Jahre 1850 bis 1921 erfasst und zur Grundlage der Messung der globalen Temperatur gemacht.

Irrer geht es kaum noch – oder?
Doch.

Gehen wir zur rechten Seite der Abbildung im Kasten.
Die erste Abbildung zeigt einen einsamen Balken, die zweite Abbildung fügt einen weiteren einsamen Balken hinzu. Beide Balken stehen für die Häufigkeit, mit der Temperaturmessungen für bestimmte Breiten- oder Längengrade in den Daten vorhanden sind. Die Temperaturmessungen sind weitgehend für dieselben Längen- und Breitengrade vorhanden, wie man sehr leicht erkennen kann. 53 Messungen am Tag, Messungen für 0,12% der Meeresfläche, die sich weitgehend im selben Längen- oder Breitengrad finden.

Irre hoch zwei.
Aber damit ist nun Schluß – oder?
Das ist nicht mehr steigerbar – oder?
Doch, ist es.

Im unteren Bereich der Seite finden sich Balkendiagramme, eines davon ist mit SST [Sea-Surface-Temperature] beschriftet. Es zeigt, zu welchen Zeitpunkten die wenigen Temperaturdaten, die für im Wesentlichen einen Längen- und Breitrengrad Meeresfläche gesammelt wurden, vorhanden sind. Sie sind im Wesentlichen für den Zeitraum Mitte 1880 bis 1900 vorhanden.

Die Aussagen über die globale Temperatur im Zeitraum von 1850 bis 1900, also für die vorindustrielle Referenzperiode, auf der alle Behauptungen, es sei um x Grad wärmer geworden gründen, basieren somit für 70% der Erde, die mit Wasser bedeckt sind auf

  • Messungen, die weitgehend im selben Bereich gemacht werden,
  • maximal 0,12% der Wasseroberfläche abbilden,
  • bestenfalls den Zeitraum von 1885 bis 1900 umfassen

https://sciencefiles.org/2023/12/11/knapp-70-ausfall-vorindustrielle-temperaturdaten-sind-mehr-oder-weniger-frei-erfunden/#

Zu diesem Trauerspiel an Daten, das wirklich nur Leute als Datenbasis ausgeben können, die jede Form wissenschaftlicher Lauterkeit vermissen lassen, gesellt sich das Trauerspiel der Landdaten, die für den Zeitraum von 1850 bis 1900

  • zu gut 90% aus den USA und Kanada stammen,
  • Daten im Wesentlichen ab 1890 abbilden,
  • in Europa ein klares Übergewicht für Temperaturdaten aus kälteren Ländern aufweisen.

Mit derartigen Daten kann man beim besten Willen nichts anfangen.
Aber man kann natürlich extrapolieren und interpolieren und Lücken füllen, wird sich aber fragen lassen müssen, warum man die Daten nicht gleich selbst erfunden hat.

Noch der Vollständigkeit halber:
Wie die ersten vier Balkendiagramme unter der Abbildung zeigen, stammen die wenigen Daten fast ausschließlich von Schiffen (Ship), so gut wie gar nicht von festen Messbojen (mbuoy) oder treibenden Bojen (dbuoy). Unter “other” wird u.a. der Anteil von fehlenden Daten dargestellt. Rote Balken bilden alle vorhandenen Daten ab, blaue Balken die verfügbaren Daten.




Die Weltklimakonferenz in Dubai – Theorie und Realität

von Fritz Vahrenholt

Zum Einstieg wie bereits gewohnt meinen Monitor zum weltweiten Temperaturanstieg. Danach beschäftige ich mich mit der Rolle der Bundesregierung auf der Klimakonferenz in Dubai.

Im November 2023 ist die Abweichung der globalen Temperatur vom 30-jährigen Mittel der satellitengestützten Messungen der University of Alabama (UAH) gegenüber dem Oktober gleichgeblieben. Der Wert beträgt 0,91 Grad Celsius. Der El Nino wird aller Voraussicht bis April-Juni 2024 andauern. Der Peak scheint allerdings überschritten.
Der Temperaturanstieg beträgt im Durchschnitt pro Jahrzehnt seit 1979 0,14 Grad Celsius.

https://www.drroyspencer.com/latest-global-temperatures/

Die Weltklimakonferenz in Dubai
Die Weltklimakonferenz in Dubai zeigt, wieweit sich Deutschland von der realen Energiepolitik der anderen Länder entfernt hat. Bundeskanzler Scholz erzielte mit seinem Auftritt wenig Resonanz, denn die anderen kennen die deutsche Leier, daß Windkraft und Fotovoltaik die Welt retten. Sie kennen die fatalen Folgen der deutschen Energiepolitik auf die wirtschaftliche Entwicklung und wissen, dass diese blauäugige, realitätsferne deutsche Energiepolitik das Land zu den höchsten Strompreisen der Welt geführt hat. Scholz:
Also reduziert er die Energiezukunft auf zwei Energieträger, denn elektrische Antriebe und grüner Wasserstoff sind keine Primärenergieträger. 2022 stammten 5 % der weltweit erzeugten Primärenergie aus Solar- und Windenergie. Daher ist seine Forderung nach Verdreifachung der Wind- und Solarenergie bis 2030 allenfalls dazu geeignet, den weiter wachsenden Energiehunger der Welt abzudecken als in irgendeiner relevanten Form die Kohle-, Öl – und Gasbasis zu ersetzen. Und er vergisst, wie auch hierzulande immer wieder, zwei technologische Wege, die die ganze Welt beschreiten wird – nur das grün-ideologische verbarrikadierte Deutschland nicht: den Ausbau der Kernenergie und die CO2-Abscheidung bei der Nutzung von Kohle, Öl und Gas. Die 250 deutschen Delegierten mußten zur Kenntnis nehmen, dass 22 Länder die Verdreifachung der Kernenergiekapazität in Dubai forderten. Damit hat die Kernenergie – das tote Pferd des Olaf Scholz- ihr Mauerblümchendasein auf Weltklimakonferenzen hinter sich gelassen und ist Teil des Abschlussdokuments geworden.
Der am 13.12. verabschiedete Beschluß fordert  die Staaten zu einem gerechten, geordneten und fairen Übergang weg von fossilen Brennstoffen in den Energiesystemen auf. Außerdem verlangt der Entwurf, verstärkt auch auf andere emissionsfreie oder emissionsarme Technologien zu setzen. Genannt werden dabei neben den Erneuerbaren auch die Atomkraft, Wasserstoff und Technologien zum Auffangen und Speichern von CO₂ (CCS). Das Abschlussdokuments sieht keinen verbindlichen Ausstieg aus Kohle, Öl und Gas vor.
Deutschland erringt doch nur noch Aufmerksamkeit, wenn es die Spendierhosen anzieht, wie am ersten Tag, als Frau Ministerin Schulze 100 Millionen zur Verteilung an andere Länder auf den Tisch in Dubai legte. Ministerin Baerbock legte dann zum Schluss noch einmal 60 Millionen € drauf. Dabei geht unter, dass Deutschland seit Jahren den größten Batzen an Steuermitteln aller Länder der Welt verteilt: zehn Milliarden € pro Jahr für Klimaschutzprojekte in anderen Ländern. Herr Lindner sucht noch nach Ausgabenkürzungen zur Vermeidung weiterer Schulden, um die Schuldenbremse nicht aufgeben zu müssen. Hier wäre ein großer Fundus, durch dessen Streichung keinerlei Wohlstandseinbußen in Deutschland verbunden wären.
Bundeskanzler Scholz und die deutsche Delegation verschweigen bei ihrem Kampf gegen Kohle, Öl und Gas, dass die seit Jahrzehnten sinkenden CO2-Emissionen hierzulande erst durch die Ampelregierung als Folge der Stilllegung der letzten sechs Kernkraftwerke wieder angestiegen sind. Im folgenden Abbild sehen wir die CO2-Lastigkeit der deutschen Stromversorgung. Seit 2021 nimmt sie wieder zu. In 2023 ist die CO2-Intensität nicht weiter angestiegen, weil in 2023 die energieintensive Industrie um 20 % eingebrochen ist und daher die Nachfrage nach Kohlestrom nicht weiter angestiegen ist. Zur Zeit der Dubai Konferenz hatte Deutschland eine CO2-Intensität von 597g CO2/kWh – eine der höchsten der letzten sechs Jahre.
Neben dem Mehrausstoß von CO2 ist die Bundesregierung auch verantwortlich für eine Verdoppelung der Börsenstrompreise. Das macht allein in einem Jahr 25 Milliarden € Mehrkosten für Bürger und Unternehmen aus (500 TWh mal 5 €ct/kWh). Hinzu kommen 10,6 Milliarden € EEG-Umlage für 2024 für Wind und Solarenergie, die nun von den Steuerzahlern durch den Bundeshaushalt bezahlt werden soll. Von den gestiegenen Netzkosten und Kosten für abgestellten Windstrom (1 Mrd. in 2022) reden wir erst gar nicht.
Der grüne Kohleausstiegsplan der Bundesregierung führt zu keiner Verminderung von Klimagasen
Geht es nach der Koalitionsvereinbarung der Bundesregierung soll  „idealerweise“ der Kohleausstieg auf 2030 vorgezogen werden. Wenn der Wind nicht weht und die Sonne nicht scheint, sollen 50 neue Gaskraftwerke (25 000 MW)  gebaut werden (Bauzeit ca. sechs Jahre), die im Wesentlichen durch zusätzliches Flüssiggas versorgt werden sollen.
Klug ist das nicht. Erstens ist importiertes Flüssiggas teurer als Pipelinegas. Aber auf Grund einer Berechnung des US- Wissenschaftlers Robert Howarth von der Cornell University führt dieser Weg zweitens zu extrem hohen Treibhausgasemissionen.
Howarth berechnet überzeugend, dass die Treibhausgasemissionen eines Gaskraftwerks, das mit Flüssiggas aus den USA betrieben wird, so hoch sind wie die eines Kohlekraftwerks in Deutschland. Erdgas hat einen 30 mal höheren Treibhauseffekt als CO2. Auf dem Wege von der Förderung über die Verflüssigung, den Transport und die Regasifizierung in Deutschland geht so viel Gas verloren, dass das dadurch betriebene Gaskraftwerk nicht weniger Treibhauseffekt bewirkt als ein Kohlekraftwerk.
Flüssiggas statt Kohle – dieser grüne Weg der Bundesregierung macht die Stromerzeugung Deutschlands teurer und erhöht die Treibhausgasemissionen. Besser wäre es, wie Howarth schreibt, die Kohlekraftwerke in Deutschland am Netz zu lassen und nicht durch Flüssiggas- (LNG-) Kraftwerke zu ersetzen. Wenn man dann noch die bestehenden Kohlekraftwerke mit einer CO2-Abscheidung versehen würde, leistete man sogar einen Beitrag zur CO2-Senkung. Auch die Förderung des eigenen Schiefergases in Norddeutschland würde ökologisch und ökonomisch große Vorteile gegenüber dem LNG-Import bringen.
In der Regel aber entscheidet sich die grün-rot-gelbe Bundesregierung zu oft aus Unwissen oder Ideologie zu der Lösung, die für Deutschland die schlechteste ist.
Frau Baerbock und das Pariser Abkommen
In ihrer Pressekonferenz in Dubai erklärte die deutsche Außenministerin „Wir sind hier, um die Welt für die ganze Menschheit zu retten“. Immer wieder verweist sie auf das Pariser Klimaschutzabkommen von 2015, das die Erwärmung der Erde auf unter zwei Grad Celsius gegenüber der vorindustriellen Zeit – möglichst auf 1,5 Grad Celsius – begrenzen soll.
Wir wollen uns an dieser Stelle nicht damit beschäftigen, dass die Zeit um 1860 mit dem Auslaufen der Kleinen Eiszeit eine der kältesten Perioden der letzten 2.000 Jahre war. Diese Zeit, die für die Menschheit bedrohlich kalt war, als Ausgangsbasis für ein Temperaturziel zu nehmen, darf durchaus hinterfragt werden. Der Durchschnitt der Temperaturen der letzten 2.000 Jahre ist eher um das Jahr 1950 zu suchen.
Wichtiger ist jedoch, sich mit den Wortlaut des Pariser Abkommens zu beschäftigen.
In Artikel 4, Abs.1 des Abkommens sind die Emissionsziele in diesem Jahrhundert formuliert.
Zum Erreichen des in Artikel 2 genannten langfristigen Temperaturziels sind
die Vertragsparteien bestrebt, so bald wie möglich den weltweiten Scheitelpunkt der Emissionen von Treibhausgasen zu erreichen, wobei anerkannt wird, dass der zeitliche Rahmen für das Erreichen des Scheitelpunkts bei den Vertragsparteien, die Entwicklungsländer sind, größer sein wird, und danach rasche Reduktionen im Einklang mit den besten verfügbaren wissenschaftlichen Erkenntnissen herbeizuführen
, um in der zweiten Hälfte dieses Jahrhunderts ein Gleichgewicht zwischen den anthropogenen Emissionen von Treibhausgasen aus Quellen und dem Abbau solcher Gase durch Senken … herzustellen.“
In der zweiten Hälfte dieses Jahrhunderts soll also ein Gleichgewicht zwischen den CO2– Emissionen und den CO2-Senken , das sind Ozeane und Pflanzen, die CO2 aufnehmen, erreicht werden.
Wie die vor einigen Tagen veröffentlichten CO2-Bilanzen des Global carbon project zeigen, wird mittlerweile 57 % des CO2-Ausstoßes von Ozeanen und Pflanzen aufgenommen.
In der unten dargestellten historischen Entwicklung zeigt sich, daß die Aufnahme der Pflanzen und der Ozeane mit den gestiegenen CO2-Konzentrationen in der Atmosphäre zugenommen hat. Eine Verminderung der Emission auf das Niveau der Aufnahme von Ozeanen und Pflanzen in der zweiten Hälfte des Jahrhunderts, wie es das Pariser Abkommen verlangt, würde ein weiteres Ansteigen des CO2 in der Atmosphäre stoppen. Insofern ist Nettonull dann erreicht, wenn die CO2-Emissionen halbiert werden. Denn die Aufnahme von Ozeanen und Pflanzen richtet sich allein nach der erreichten CO2– Konzentration in der Luft und nicht nach den Emissionen aus den Schornsteinen. Bleibt also die Aufnahme von Ozeanen und Pflanzen konstant und werden die Emissionen  halbiert, ist das CO2-Problem gelöst.
Ich wünsche Ihnen allen eine gesegnete Weihnachtszeit und ein gutes neues Jahr 2024
Ihr
Fritz Vahrenholt