Menschengemachte Klimahysterie –basierend auf computergestützen Modellen

von Prof. Dr. Thomas Rießinger

Österreichischer Humor neigt gelegentlich zur Morbidität. Mancher erinnert sich vielleicht noch an das Lied „Regen“ des österreichischen Liedermachers Ludwig Hirsch, in dem mit aller Gelassenheit die Verse

„Es regnet, es regnet, es regnet seinen Lauf.
Und wenn sie alle ersoffen sind, dann hört es wieder auf“

vorgetragen werden. Bekannter sind vermutlich Georg Kreislers Zeilen

„Der Frühling, der dringt bis ins innerste Mark
Beim Taubenvergiften im Park“,

ganz zu schweigen von manchen Aussagen des berufsmäßigen Grantlers Helmut Qualtinger, wie beispielsweise „In Wien mußt‘ erst sterben, bevor’s dich hochleben lassen. Aber dann lebst‘ lang.“

Es scheint also zumindest stellenweise ein etwas eigentümlicher Humor im Alpenland zu herrschen und ganz besonders eigentümlich wird er, wenn er mit politischem Aktivismus in Verbindung gerät. Beispiele sind leicht zu finden. Nachdem vor kurzem ein von den Aktionen der sogenannten „Letzten Generation“ nicht eben begeisterter Twitter-Benutzer seine Meinung äußerte, der totalitäre und wirre Geist, der auf den Unis herrsche, sei schon während der Corona-Zeit gut zur Schau gestellt worden, antwortete Reinhard Steurer, seines Zeichens Professor für Klimapolitik in Wien, im heiligen Zorn: „Wir werden euch alle einsperren. Lockdown forever. Jetzt fürchtet euch vor dieser totalitären Wissenschaft.“ Und als man es wagte, ihn per Twitter für seine Äußerung zu kritisieren, warf er seinen Kritikern Humorlosigkeit vor und meinte: „Ab sofort antworte ich Klimakrisen-Verleugnern und -Schwurblern einfach so, wie sie es hören wollen. … Ob es sie auch so amüsiert wie mich?“

Welch ein feinsinniger Humor! Fast ist man versucht, ihn mit den büttenrednerischen Bemühungen von Marie-Agnes Strack-Zimmermann zu vergleichen, bei deren Ausführungen so manchem die Tränen gekommen sein dürften, wenn schon nicht vor Lachen, dann doch wenigstens aus Verzweiflung. Aber beim Klima, bei der Rettung des Planeten vor der drohenden Katastrophe, hört eben der Spaß auf, zumal Steurer ja nicht irgendein Professor ist, sondern Professor für Klimapolitik. Nicht für Klimaforschung, nicht für Klimaphysik, sondern für Klimapolitik, weshalb er sich auch „seit vielen Jahren mit der politischen Dimension der Klimakrise im Allgemeinen bzw. mit der politischen Bedeutung von Ausreden und Schein-Klimaschutz in allen Bereichen der Gesellschaft im Speziellen“ beschäftigt. Ja, man muss den Mann verstehen, schließlich darf man nicht einfach die Klimapanik in Zweifel ziehen, da sich sonst jede Grundlage seiner Professur in Luft auflösen würde, und das will ihm doch sicher niemand zumuten.

Präventive Todesstrafe

Immerhin hat sich Scheurer im Vergleich zu anderen Klimabewegten eher zurückhaltend geäußert. Zehn Jahre sind ins Land gezogen, seit Richard Parncutt, ein aus Australien stammender Professor für Musikpsychologie in Graz, die Todesstrafe für Klimaleugner gefordert hat. Gewöhnliche Massenmörder wollte er nicht hinrichten, die waren ihm wohl zu harmlos, aber bei Klimawandelleugnern sei das etwas ganz anderes. „Ich möchte behaupten, dass es prinzipiell in Ordnung ist, jemanden umzubringen, um eine Million andere Menschen zu retten.“ Und: „Die Todesstrafe ist angemessen für einflussreiche Leugner der Erderwärmung.“ Eine interessante juristische Variante: die präventive Todesstrafe, ausgesprochen auf der Basis einer Theorie, die vor allem auf computergestützen Modellen beruht. Man sollte sie vielleicht einmal dem deutschen Bundesverfassungsgericht vorlegen, dem ja bekanntlich der Klimaschutz noch stärker am Herzen liegt als die Rechtsstaatlichkeit, von der Freiheit des Individuums gar nicht zu reden. Darf man sich für einen Augenblick vorstellen, ein deutscher Professor hätte Ähnliches über ein anderes Thema geäußert? Wenn es zum Beispiel nicht um Leugner der Erderwärmung ginge, sondern um einflussreiche Leugner der Impfnebenwirkungen? Die Reaktionen würden sich gewaltig unterscheiden. Hassrede! Hetze! Volksverhetzung! Hausdurchsuchung! Verhaftung! Doch auch Parncutt wurde hart gemaßregelt: Er musste ein Gespräch mit seinem Universitätsrektor und seinem Dekan überstehen. In Amt und Würden ist er nach wie vor. Nicht nur für einen großen Teil der politischen Elite gilt Helmut Qualtingers Diktum: „Es gibt kaum etwas Schöneres, als dem Schweigen eines Dummkopfes zuzuhören.“

Globale Durchschnittstemperatur

Aber werfen wir doch einmal einen Blick auf das, was diese Menschen, ob Professoren oder nicht, so sehr aus der Bahn wirft. Es ist, wie sollte es auch anders sein, die Hitze, die unerträglich ansteigende Hitze, die sich in Form einer steigenden globalen Durchschnittstemperatur zeigt. Daher hat man das bekannte und beliebte 1,5-Grad-Ziel ersonnen, das im Rahmen des Pariser Klimaabkommens 2015 beschlossen wurde: Im Vergleich zu den Temperaturen von 1850 darf und soll die globale Durchschnittstemperatur um nicht mehr als 1,5 Grad Celsius steigen, sonst kann man das Klima nicht retten und die Menschheit schwitzt sich ihrem eigenen Untergang entgegen.

Nun entsteht dabei aber das eine oder andere Problem. Was soll man beispielsweise unter der globalen Durchschnittstemperatur verstehen? Hier kann das Wetter- und Klimalexikon des Deutschen Wetterdienstes weiterhelfen. „Unter der globalen Durchschnittstemperatur,“ lesen wir dort, „versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum.“ Man muss also den Durchschnittswert über alle Temperaturen eines Jahres und alle Weltgegenden ermitteln. Prinzipiell ist die Berechnung eines Durchschnitts kein Problem; hat man beispielsweise drei Messwerte zur Verfügung, so addiert man diese Messwerte, um die Summe anschließend durch drei zu teilen und so den Durchschnitt zu erhalten. Es geht hier aber nicht nur um drei Messwerte. Zur Bestimmung der tatsächlichen globalen Durchschnittstemperatur eines Jahres müsste man nichts weiter tun, als für jeden Punkt der Erdoberfläche die Temperatur zu jedem beliebigen Zeitpunkt des Jahres festzuhalten und dann mithilfe von ein wenig Integralrechnung den Mittelwert zu bilden. Das dürfte schwierig werden und das weiß man auch beim Deutschen Wetterdienst. „Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen.“

Man kann immer nur endlich viele Orte und endlich viele Zeitpunkte auswerten und wird somit immer mehr oder weniger weit von der Realität entfernt sein. Ein einfaches fiktives Beispiel kann das verdeutlichen. Hat man etwa eine gerade verlaufende Strecke von einem Kilometer Länge und eine Messgröße, die sich wie das Quadrat der Strecke verhält, so wird man am Punkt 0 den Messwert 0 finden, am Punkt 0,5 den Messwert 0,5*0,5=0,25 und am Punkt 1 den Messwert 1*1=1. Wieder kann man nicht alle möglichen Punkte auswerten, man muss annähern. Die einfachste Näherung besteht darin, nur den Anfangs- und den Endwert zu betrachten und ihr Mittel zu bilden: das wäre der Durchschnitt aus 0 und 1, also 0,5. Sehr einfache Integralrechnung, die ich aus humanitären Gründen hier nicht vorführe, zeigt jedoch einen echten Mittelwert in Höhe von 0,33. Bezogen auf den echten Mittelwert habe ich durch die näherungsweise Durchschnittsbildung also einen Fehler von 50 % erzielt. Nimmt man noch einen Punkt hinzu, beispielsweise den Punkt auf halber Strecke mit dem Messwert 0,25, so findet man aus den jetzt vorhandenen drei Messwerten den gerundeten Mittelwert 0,42. Das ist schon besser, aber immer noch beträgt die Abweichung 25 %. Es ist also keineswegs selbstverständlich, dass ein angenäherter Mittelwert große Ähnlichkeiten mit dem tatsächlichen Mittelwert hat.

Manches andere kommt noch hinzu, denn aus dem Mittelwert, also der globalen Durchschnittstemperatur alleine kann man noch nicht auf die tatsächlichen klimatischen Verhältnisse schließen. Nehmen wir wieder ein fiktives Beispiel. In einem bestimmten Bereich der Welt gehe ich davon aus, dass zum Jahresbeginn eine Temperatur von 0 Grad Celsius herrscht, die sich im Verlauf des ersten Vierteljahres stetig und gleichmäßig auf 30 Grad Celsius erhöht, um dann wieder bis zum Ende des ersten Halbjahres auf 0 Grad abzusinken. Das Gleiche geschieht im zweiten Halbjahr, nur mit umgekehrtem Vorzeichen: Die Temperatur sinkt auf -30 Grad ab und erreicht pünktlich zum Jahresende wieder den Gefrierpunkt. Offenbar beträgt die jährliche Durchschnittstemperatur dieses Bereichs 0 Grad Celsius. Vergleicht man das mit einem anderen fiktiven Bereich, dessen Temperatur durchgängig bei 0 Grad liegt, so fällt auf, dass zwar beide Bereiche mit der gleichen jährlichen Durchschnittstemperatur geschlagen sind, aber offensichtlich sehr verschiedene klimatische Verhältnisse aufweisen. Die Durchschnittstemperatur alleine sagt nicht allzu viel aus.

Schon deshalb nicht, weil man zusätzlich den sogenannten Wärmeinseleffekt berücksichtigen muss: Städtische Regionen heizen sich aufgrund der Bebauung stärker auf als das ländliche Umland und man kann nicht davon ausgehen, dass diese Unterschiede weltweit angemessen berücksichtigt werden. Und selbstverständlich muss man gemessene Rohdaten gelegentlich nachbearbeiten – ein Prozess, der einen weiten Ermessensspielraum beinhaltet und gelegentlich dazu führt, dass nach der Bearbeitung der Daten eine stärkere Erwärmung vorliegt als vorher, je nach persönlicher Vorliebe und klimapolitischer Ausrichtung des Bearbeiters.

Das alles ist aber nicht weiter wichtig, denn entscheidend ist ja nicht die konkrete globale Durchschnittstemperatur, sondern nur die Änderungen der Temperatur, und um die festzustellen, braucht man die absoluten Temperaturen gar nicht, wie uns das Wissenschaftsmagazin „Quarks“ berichtet.

Anmerkung der EIKE Redaktion: Einen ähnlichen Quark als Beweisführung warum die Bestimmung der Anomalie genauer sei, als die Messung der Absoluttemperaturen und deren Veränderungen servierte der bekannte Klimafolgenforscher Stefan Rahmstorf seinen erstaunten Studenten vor ein paar Jahren bei einer Veranstaltung in Mainz (Details dazu hier). Unser Fazit: Weder der Quarks Journalist Lorentz noch der Klimafolgenforscher Rahmstorf scheinen mit den Grundrechenarten gut vertraut zu sein, wonach eine Differenz erst dann entsteht, wenn man mindestens 2 Absolutwerte voneinander abzieht.

Es sei viel sinnvoller, „sich statt der absoluten Temperaturen die Temperaturveränderungen über längere Zeiträume anzusehen. Denn Veränderungen sind mit wissenschaftlichen Methoden viel genauer zu messen als absolute Werte. Zur Veranschaulichung: Wer auf dem Gipfel des Mount Everest eine Hütte baut, kann mit einem Zollstock exakt ausmessen, um wie viele Zentimeter der höchste Berg der Welt dadurch „gewachsen“ ist, wohingegen die Angabe der absoluten Höhe mit einem viel größeren Fehler behaftet ist, denn der Meeresspiegel schwankt und die Erdkruste schwingt.“

Ich lasse gern die Frage außer Acht, warum ausgerechnet der Mount Everest als Standort der Hütte herhalten musste, da man nur selten etwas vom Hüttenbau auf seinem Gipfel gehört hat. Doch auch unabhängig davon ist das Beispiel etwas seltsam. Übertragen auf die Temperaturmessung würde das bedeuten, dass man an einem bestimmten Punkt nicht die Temperatur zu zwei verschiedenen Zeitpunkten messen muss, um dann die Differenz zu bestimmen, sondern dass die Temperatur zum ersten Zeitpunkt – das entspricht der eigentlichen Höhe des Mount Everest – völlig egal ist, weil man am untersuchten Punkt zum zweiten Zeitpunkt irgendeine Wärmemenge – das entspricht der Höhe der gebauten Hütte – zur Anwendung bringt und somit die Temperaturdifferenz ohnehin kennt. Eine Wärmemenge ist aber keine Hütte, die man irgendwo aufbaut, man bringt sie nicht in einem Rucksack mit und freut sich an der gestiegenen Temperatur. Diese Veranschaulichung hinkt ähnlich stark wie Annalena Baerbocks außenpolitische Ideen.

Der Sünder ist identifiziert

Ob Differenzen oder nicht, man muss auch der Frage nachgehen, warum die – in welcher Form auch immer – gemessenen Durchschnittstemperaturen gestiegen sind. Und die Antwort ist klar. „Hauptverursacher des Klimawandels,“ erklärt das Bundesumweltministerium seinen jüngeren Lesern, „sind die Menschen, vor allem in den Industriestaaten. Fabriken, Autos, Flugzeuge, die Beleuchtung der Häuser und Städte – all das braucht Energie in Form von Strom, Gas oder Benzin. Und wo Strom aus Kohle erzeugt oder Benzin und Gas verbrannt werden, entsteht das Treibhausgas Kohlendioxid.“ Da haben wir es. Es ist das Kohlendioxid, der Sünder ist identifiziert. Wenn beispielsweise der europäische Kontinent nicht im Sinne der Europäischen Union bald zum klimaneutralen Kontinent wird, also „so viele CO₂-Emissionen beseitigt, wie er produziert“, dann ist die Klimakatastrophe nicht mehr aufzuhalten und es bleibt uns nichts anderes übrig, als uns an den Straßen festzukleben und darauf zu warten, dass die Erhitzung den Asphalt zum Schmelzen bringt. Eine andere Möglichkeit gibt es nicht, denn andere Ursachen für die Entwicklung des globalen Klimas muss man nicht in Betracht ziehen.

Wo sollten sie auch sein? Niemanden muss es bedenklich stimmen, dass das Basisjahr für das bereits erwähnte 1,5-Grad-Ziel gerade das Jahr 1850 ist – genau das Jahr, das man üblicherweise mit dem Ende der Kleinen Eiszeit identifiziert. Dass es während einer Eiszeit, und sei es nur eine kleine, kälter sein dürfte als danach, kann außer Politikern und Journalisten des öffentlich-rechtlichen Rundfunks jeder verstehen und diese Erwärmung zählt zu den natürlichen Klimaphänomenen, nicht zu den menschengemachten. Niemanden muss stören, dass es so etwas wie Ozeanzyklen gibt, zu nennen wären vor allem die Pazifische Dekaden-Oszillation, abgekürzt PDO, die Atlantische Multidekaden-Oszillation, AMO, und die Nordatlantische Oszillation mit der Abkürzung NAO. Es handelt sich um langfristige natürliche Ozeanzyklen, deren Auswirkungen auf die Temperatur- und Klimaentwicklung nicht zu unterschätzen sind und die mit CO₂-Emissionen nichts zu tun haben. Selbstverständlich muss auch niemand die Bedeutung der Sonnenaktivität für das irdische Klima zur Kenntnis nehmen, denn wir haben ja die CO₂-Erklärung, wozu soll man sich dann noch mit empirischer Wissenschaft plagen? Und ohne Frage ist es hilfreich, die Existenz von Warmzeiten in der Vergangenheit einfach zu ignorieren, zu einer Zeit, in der die CO₂-Emissionen vernachlässigt werden konnten, wie zum Beispiel während des Holozänen Thermischen Maximums, einer Zeitspanne von etwa 3000 Jahren, deren Ende 5500 Jahre zurückliegt und in der es wärmer war als heute. Ganz zu schweigen von der Römischen Warmzeit zur Zeit des antiken Rom oder der Mittelalterlichen Wärmeperiode während des Hochmittelalters um das Jahr 1000 n. Chr.. Nichts davon hatte etwas mit CO₂-Emissionen zu tun. Wer sämtliche Klimaveränderungen auf nur eine einzige Ursache schieben will, darf mit Recht als Klimawandelleugner bezeichnet werden, da er die Existenz eines Klimawandels vor dem Jahr 1850 bestreiten muss.

Doch wenigstens weiß man ganz genau, welche Auswirkungen die Steigerung der CO₂-Emissionen auf die globale Durchschnittstemperatur hat, auch wenn diese Temperatur mit leichten Ungewissheiten behaftet ist. Denn zu diesem Zweck bestimmt man die sogenannte Klimasensitivität als „die Veränderung der globalen mittleren Erdoberflächentemperatur im Gleichgewicht, das durch eine Verdoppelung der atmosphärischen CO₂-Konzentration bewirkt wird,“ wie man in einem Bericht des IPCC auf Seite 14 lesen kann. Doch wie seltsam: Diese Sensitivität liegt nach Angaben der obersten Klimabewegten wahrscheinlich in einer Spanne zwischen 1,5 und 4,5 Grad Celsius, niemand weiß es genau. „Aufgrund fehlender Übereinstimmung der Werte aus den beurteilten Anhaltspunkten und Studien kann kein bester Schätzwert für die Gleichgewichts-Klimasensitivität angegeben werden,“ heißt es im gleichen Bericht; man weiß also nicht, welchen Mittelwert man hier sinnvollerweise annehmen muss. So klar sind die Grundlagen der Klimapolitik.

Und wie gelangt man nun zu Aussagen über die zukünftige Klimaentwicklung? Mit einem einfachen Hilfsmittel, das schon im Verlauf der sonderbaren Covid-Pandemie seine Durchschlagskraft bewiesen hat, zumindest im Hinblick auf politische Fehlentscheidungen: Die computerbasierten Modelle sind das Mittel der Wahl. Allerdings soll es auch Forscher wie Bjorn Stevens vom Max-Planck-Institut für Meteorologie geben, der gegenüber dem Spiegel seine Frustration über die Qualität der Vorhersagen der globalen Erwärmung zum Ausdruck brachte: Sie seien so unpräzise wie eh und je. „Unsere Computer sagen nicht einmal mit Sicherheit voraus, ob die Gletscher in den Alpen zu- oder abnehmen werden.“ Das nenne ich Genauigkeit, und Stevens sah das nicht anders – allerdings mit einer weitgeöffneten Hintertür: „Die Genauigkeit der Vorhersagen ist nicht besser geworden, aber unser Vertrauen in sie ist gewachsen.“ Wir wissen zwar nicht mehr als früher, aber dafür glauben wir jetzt umso fester daran.

Wir haben also die Zielgröße der globalen Durchschnittstemperatur, sei es in absoluten Werten oder in Form von Temperaturdifferenzen, die zwangsläufig mit starken Ungenauigkeiten behaftet ist und zudem noch von interessierten Klimawissenschaftlern nachkorrigiert werden muss und kann. Wir haben mit den CO₂-Emissionen eine einzige Ursache für die Klimaerwärmung, die alle anderen jahrtausendealten Klimafaktoren außer Kraft gesetzt hat. Und wir haben Klimamodelle, die zu keinen brauchbaren Voraussagen in der Lage sind, denen man aber unbedingt vertrauen soll. Das sind beruhigende Verhältnisse.

‚Die Ära des Klimatodes‘

Ich will aber nicht kleinlich sein und für einen Moment all das glauben, was man uns immer und immer wieder erzählt, denn schließlich gilt: „The science is settled“. Wenn nun allerdings erhöhte Temperaturen eine so schlimme Wirkung haben und die Lebensqualität so sehr und so negativ beeinflussen, dass man sich im Vorfeld auf Straßen kleben muss, dann sollten auch heute schon temperaturbedingte Unterschiede in den Lebensverhältnissen zu bemerken sein. Insbesondere dürften sich diese Unterschiede in den verschiedenen Lebenserwartungen widerspiegeln. Immerhin schrieb man in der Frankfurter Rundschau schon im letzen Sommer, „dass wir uns bereits in der Ära des Klimatodes und der Klimazerstörung befinden“.

Nun kann man aber, da es offenbar möglich ist, eine globale Durchschnittstemperatur zu bestimmen, sich auch an die nationalen Durchschnittstemperaturen wagen. Eine Auflistung dieser Temperaturen von 2021, erstellt auf der Basis von Daten der Weltbank, kann man leicht finden. Und diesen jährlichen Durchschnittstemperaturen kann man nun die Lebenserwartung der Menschen in den einzelnen Ländern, aufgeteilt nach Frauen und Männern, gegenüberstellen – zu Diversen waren leider keine Daten verfügbar. Die folgende Tabelle zeigt die Werte von 39 europäischen Staaten. Man muss sie nicht im Einzelnen studieren, sie werden anschließend graphisch aufbereitet.

Ein Bild, das Tisch enthält. Automatisch generierte Beschreibung
Ich erlaube mir, die Klimaproblematik für kurze Zeit beiseite zu lassen und ein völlig anderes Problem ins Auge zu fassen. Oft wird gesprochen vom Gender Pay Gap, also von der Lohnschere zwischen Männern und Frauen. Wie die Tabelle zeigt, ist aber das Phänomen des Gender Life Gap sehr real, denn in allen 39 Staaten haben Frauen eine deutlich höhere Lebenserwartung als Männer, im Durchschnitt sind es zwischen fünf und sechs Jahren. Wie kann man das dulden? Hier besteht offenbar Handlungsbedarf: Karl Lauterbach, übernehmen Sie!

Zurück zum Klima! In den folgenden beiden Abbildungen sind die Daten veranschaulicht, jeder Punkt entspricht einer der Kombinationen aus Temperatur und Lebenserwartung.

Ein Bild, das Text, Himmel, Screenshot enthält. Automatisch generierte Beschreibung

Wie man sieht, hält sich die Deutlichkeit des Zusammenhangs in engen Grenzen. Bei Frauen und bei Männern sind hohe Lebenserwartungen sowohl im niedrigen als auch im hohen Temperaturbereich zu verzeichnen, und zwischen 5 Grad und 15 Grad haben wir eine völlig ungeregelte Punktwolke: Es gibt keinen Zusammenhang. Das sieht man noch deutlicher, wenn man die sogenannten Trendgeraden einzeichnet. Ihre Steigungen sind ausgesprochen gering, im Falle der Männer liegt sie bei 0,13, für die Frauen hat man sogar nur 0,04. Man könnte auf die Idee verfallen, dass ein zwar leichter, aber immerhin vorhandener positiver Einfluss der Durchschnittstemperatur auf die Lebenserwartung besteht, doch das wäre nur eine Illusion. Es ist nämlich möglich, mit dem sogenannten Korrelationskoeffizienten ein Maß für die Stärke des Zusammenhangs zu berechnen, und dieser Koeffizient liegt in der Riege der Männer bei 0,13, in der Klasse der Frauen sogar nur bei 0,07. Ein Koeffizient in der Nähe von 1 beschreibt einen sehr starken Zusammenhang, während man bei dem Wert 0 überhaupt keinen Zusammenhang feststellen kann. Hier liegen wir sehr nah bei 0, man darf daher nicht davon ausgehen, dass die Temperatur einen nennenswerten Einfluss auf die Lebenserwartung hat.

Dass bei einer Erhöhung der Durchschnittstemperatur die Lebenserwartung sinken muss, lässt sich also nicht zeigen. Immerhin liegt beispielsweise die maltesische Durchschnittstemperatur mehr als 10 Grad über der deutschen, und auch die maltesischen Lebenserwartungen übersteigen die der Deutschen. Doch man könnte einwenden, dass die Lebenserwartung nicht nur von der Temperatur abhängen kann, sondern auch noch von anderen Faktoren wie zum Beispiel der Qualität des Gesundheitssystems und dem Geisteszustand des Gesundheitsministers. Wie wahr! Genau deshalb ist es nicht übermäßig sinnvoll, sich nur und ausschließlich auf klimatische Faktoren zu konzentrieren, und genau deshalb ist es auch nicht sinnvoll, die klimatischen Betrachtungen selbst mit heiliger Entschlossenheit auf den einen Faktor der CO₂-Emissionen zu fokussieren. Es handelt sich um komplexe Phänomene, die sich nicht monokausal erklären lassen, auch dann nicht, wenn man sich jeden Tag auf eine neue Straße klebt.

Und die Gletscher?

Weitere Einwände kann man schon hören, bevor sie geäußert werden. Wir wissen doch, dass durch die Erhöhung der CO₂-Emissionen extreme Wetterereignisse gefördert werden, was dann wieder seinen Niederschlag in der Lebenserwartung finden muss. Das ist einleuchtend, vor allem dann, wenn man bedenkt, dass Björn Lomborg kürzlich die deutliche Abnahme der Todesopfer bei Extremwetter im Verlauf der letzten einhundert Jahre gezeigt hat: „Um mehr als 90 Prozent sind die Opferzahlen zurückgegangen, obwohl die Weltbevölkerung sich in der gleichen Zeit vervierfacht hat,“ weiß die „Welt“ zu berichten, und die jämmerlichen Versuche der Tagesschau-Faktenfinder, diese Aussage zu entkräften, haben nur dazu beigetragen, den Ruf der Tagesschau noch weiter zu unterminieren.

Und die Gletscher? Was ist mit den Gletschern? Die werden doch ohne Frage stetig kleiner! Das bestreitet kaum jemand, es ist aber nichts Besonderes, wie der Schweizer Geologe Christian Schlüchter herausgefunden hat. „Unsere Gletscher, so Schlüchters zentrale Erkenntnis, waren in den letzten 10 000 Jahren die meiste Zeit kleiner als 2005. Es gab mindestens zwölf Wärmephasen seit der letzten Eiszeit. … Seine Forschungen zeigen zudem: Die Klimaerwärmung ist kein linearer, sondern ein exponentieller Prozess mit vielen Faktoren, über deren Wechselwirkung wir zu wenig wissen.“ Und das sind Erkenntnisse, die auf empirischer Wissenschaft beruhen, nicht auf Modellrechnungen.
Aber die Wissenschaft ist sich doch zu 97 % über den vollständigen Einfluss des Menschen auf den Klimawandel einig! Das wird immer gern behauptet. Barack Obama hat diese Zahl vor zehn Jahren verbreitet und diese Quelle macht die Aussage keineswegs besser. Sie geht zurück auf eine Arbeit des australischen Psychologen John Cook, die darauf beruhte, dass er alle untersuchten wissenschaftlichen Artikel, die sich gar nicht über den menschlichen Einfluss geäußert haben, ignorierte und ansonsten jeden Artikel, der irgendeinen menschlichen Einfluss bejahte, egal in welcher Größenordnung, zu seinen 97 % zählte. Das war Voodoo-Wissenschaft vom Feinsten.

„I don’t want you to be hopeful, I want you to panic,“ sagte einst Greta Thunberg, der lebende Beweis dafür, dass pures Schuleschwänzen, verbunden mit Nichtwissen, einer Karriere nicht im Weg stehen muss, solange man die nötigen Phrasen beherrscht. Und sie hatte recht. In Panik verfallen müssen wir allerdings nicht, weil uns der Boden unter den Füßen verbrennen wird, sondern weil eine modellbasierte Ideologie sich zur alles beherrschenden Religion aufschwingen konnte, die katastrophale Auswirkungen auf das Leben der Menschen und auf ihren in der Regel bescheidenen Wohlstand hat. Und „How dare you?!“ rief sie den Politikern zu. Auch diese Frage ist berechtigt, aber nicht etwa, weil man ihr, wie sie sagte, ihre Träume und ihre Kindheit gestohlen hat; das haben sie und ihre Eltern schon ganz alleine geschafft. „Wie könnt ihr es wagen?“, muss man alle die fragen, die sich anmaßen, über unser Leben, über unsere Lebensweise zu entscheiden, und alle, die seit Jahr und Tag nichts anderes tun, als ihre Propaganda zum Untergang der Welt zu verbreiten. Ich darf dieser Propaganda einen Ausspruch des bereits angeführten Geologen Christian Schlüter entgegen halten: „Die Erfindung des Teufels war die grandioseste Erfindung, die die Menschheit je gemacht hat. Man kann viel Geld verdienen, wenn man ihn an die Wand malt.“ Es wird Zeit, die Wände wieder von diesen Bemalungen zu befreien.

Der Beitrag erschien zuerst bei Reitschuster.de hier

 

 




Was ist nur los mit Euch?

Wenn ich aus dem französischen Exil in mein deutsches Vaterland schaue, schaudert es mich. Es schaudert mich jeden Tag. Was ist nur los mit Euch, liebe Landsleute? Woran wollt Ihr Euch noch alles gewöhnen, bis Ihr bemerkt, wo Ihr wieder einmal hineingeraten seid? 

von Manfred Haferburg

Ihr habt Euch daran gewöhnt, dass Wahlen nichts mehr ändern können. Egal wen Ihr wählt, Ihr bekommt das gleiche Gruselkabinett.

Ihr habt Euch daran gewöhnt, dass überführte Titelbetrüger, offensichtlich Gestörte, unheilbar Vergessliche und hoffnungslos inkompetente Menschen Minister werden und alles, was sie anfassen, an die Wand fahren.

Ihr habt Euch daran gewöhnt, von Leuten, die weder einen Schulabschluss vorweisen können noch je einen einzigen Tag in ihrem Leben produktiv gearbeitet haben, gesagt zu bekommen, wie Ihr zu leben und zu arbeiten habt.

Ihr habt Euch daran gewöhnt, dass Scharlatane, Mietwissenschaftler und Staatsprofessoren festlegen, was wahre Wissenschaft ist, dass andere Meinungen in der Wissenschaft unterdrückt werden müssen und der wissenschaftliche Diskurs sich dem politischen Willen der Regierung unterordnet.

Ihr habt Euch daran gewöhnt, dass Ihr für Staatsmedien bezahlen müsst, die Euch ununterbrochen hinter die Fichte führen, mit der Wahrheit lügen, Euch mit einem Trommelfeuer minderwertigster Propaganda beschallen und zu Untertanen umerziehen, und deren Protagonisten sich schamlos bereichern.

Von ideologischen Minderleistern diffamiert

Ihr habt Euch daran gewöhnt, dass ideologische Minderleister Euch permanent als Rassisten diffamieren, Euch mit abfälligen Bezeichnungen wie „Kartoffeln“ und „Weißbrote“ beschimpfen, Euer baldiges Aussterben bejubeln und Ihr diese Leute auch noch fürstlich bezahlen müsst.

Ihr habt Euch daran gewöhnt, dass man Euch jederzeit wegen einer vermeintlichen Gesundheits- oder Klimagefahr in Eure Wohnungen einsperren kann, dass man Euch zwingen kann, Papiermaulkörbe zu tragen, dass man Euch verbieten kann, spazieren zu gehen, auf einer Bank zu sitzen. Oder gar Eure Mutter zu umarmen.

Ihr habt Euch daran gewöhnt, dass alle staatlichen Versprechen über die Wirksamkeit der Covid-Impfung – schützt vor Ansteckung, schützt vor Übertragung, ist ohne Nebenwirkungen – sich in Luft aufgelöst haben und Politik und Medizin jetzt die Opfer im Stich lassen.

Ihr habt Euch daran gewöhnt, dass sadistische Angstneurotiker Euren Kindern das Spielen, Toben und Lernen verboten, die wehrlosen Kinder in Angst und Schrecken versetzt und nicht wiedergutzumachenden Schaden in den schutzlosen Kinderseelen angerichtet haben.

Ihr habt Euch daran gewöhnt, dass nahezu täglich Mitmenschen in Eurer Heimat gemessert werden, dass nahezu täglich Frauen vergewaltigt und die Täter von der Justiz mit Samthandschuhen angefasst werden.

Lobbyisten lügen Euch frech ins Gesicht

Ihr habt Euch daran gewöhnt, dass Ihr die höchsten Steuern und Abgaben zahlen müsst, dass Ihr die höchsten Strompreise der zivilisierten Welt zahlt und dass Eure schamlos in Staatskarossen umherreisenden und in Regierungsfliegern umherjettenden „Eliten“ Euch einreden, Ihr müsstet Euch für den Klimaschutz noch weiter einschränken.

Ihr habt Euch daran gewöhnt, dass Euer kleiner Traum von einem schönen Auto, einem kleinen Haus und ein paar Urlaubsreisen von Leuten zertrampelt wird, die sich dies alles selbst gönnen. Denn das werden sich nur noch wenige Privilegierte leisten können.

Ihr habt Euch daran gewöhnt, dass Lobbyisten wie Professor Claudia Kemfert Euch frech ins Gesicht lügen, dass es bald möglich sein wird, ein Industrieland mit volatilem Wind- und Sonnenstrom zu versorgen und dabei moderne, voll funktionsfähige Kraftwerke zu verschrotten und im Stile der Maschinenstürmer der vorindustriellen Zeit in die Luft zu sprengen.

Ihr habt Euch daran gewöhnt, dass Euch vorgeschrieben wird, was Ihr denken und wie Ihr was sagen dürft, mit sprachverhunzenden Lauten und Pausen, mit Leitplanken für Gedanken und Worte.

Ihr habt Euch daran gewöhnt, dass verführte Jugendliche sich auf Euren Straßen ungestraft festkleben und Euch daran hindern, zu Euren Arbeitsstellen zu gelangen. Ihr lasst zu, dass die Hohepriester der Klimareligion Eure Wohlstandskinder immer mehr indoktrinieren.

Verzichten gilt natürlich nur für Euch

Ihr habt Euch daran gewöhnt, dass euch selbsternannte Experten weismachen wollen, Deutschland könne das Weltklima retten, wenn Ihr nur genug verzichtet. Verzichten gilt natürlich nur für Euch.

Ihr habt Euch daran gewöhnt, dass Ihr widerspruchslos hinnehmt, dass Eure hart erarbeiteten Einzahlungen in das Sozialsystem Eurer Heimat mit allen Dauer-Gästen geteilt werden, die es nach Deutschland schaffen und von denen viele nicht daran denken, auch etwas beizutragen.

Ihr habt Euch daran gewöhnt, dass gierige Globalisten Eure kleinen Ersparnisse entwerten und es für Euch immer schwerer wird, mit Euren Familien ein würdevolles Leben zu führen. Euer Geld ist ja nicht weg, es haben nur Andere.

Ich könnte diese Liste des Grauens noch beliebig fortsetzen. Wie konnte es so weit kommen?

Woran wollt Ihr Euch noch alles gewöhnen, bis Ihr merkt, dass Eure Freiheit und Euer Wohlstand nach der Salamitaktik scheibchenweise immer mehr eingeschränkt werden. Wisst Ihr nicht, dass die Scheibchen nie mehr an die Salami angefügt werden können?

Jeder gegen jeden

Es gibt Menschen unter Euch, die sich nicht daran gewöhnen wollen. Aber sie sind in der Minderzahl. Zu viele sagen: „Ach, mir geht es doch eigentlich noch ganz gut, ich bin nicht so schwer betroffen wie andere“. Andere wieder sagen: „Ach, es wird schon nicht so schlimm kommen, wie es die Miesepeter vorhersagen. Es ist ja bisher immer noch einigermaßen gut gegangen“.

Ihr seid tief zerstritten und übt Euch in „Abgrenzung“ gegen vermeintlich falsche politische Richtungen, ohne zu merken, dass dies genau die Strategie Eurer Verführer ist. Fast jeder ist in Deutschland gegen irgendjemanden, Linke gegen Rechte, Wessis gegen Ossis, Bayern gegen Berliner, Polizisten gegen Spaziergänger, Arme gegen Reiche, Deutsche gegen Zugezogene, Ausländer gegen Deutsche… Die Liste ist endlos.

Statt zusammen gegen diejenigen zu stehen, die Euch Eurer Freiheit berauben und Euch bis aufs Hemd ausnehmen, baut Ihr Brandmauern ohne Brände, schwärzt Ihr Euch gegenseitig bei den staatlichen „Meldestellen“ an, ruft die Polizei, wenn einer ein falsches Wort sagt, die Maske nicht richtig aufhat, ein falsches Karnevalskostüm oder eine falsche Frisur trägt oder sich über jemanden lustig macht, der ja vielleicht sogar in Wirklichkeit lächerlich ist.

Im Gebrüll zählen die Argumente nicht

Wurde der Staat übergriffig, wurden viele von Euch noch übergriffiger. Ich werde nie die Kellnerin vergessen, eigentlich eine unscheinbare kleine Frau in mittleren Jahren, die einem Gast den Genuss eines Kaffees mit höhnischem Ton verwehrte, weil er mit Johnson & Johnson geimpft war und dies nur einen Piks statt der zwei heilbringenden BioNTechs bedeutete. Ich werde nie die Staatskünstler vergessen, die über ihre aufmüpfigen Kollegen Hohn und Häme ausschütteten und die Vernichtung ihrer beruflichen Existenz verlangten.

Aus dem einstigen Blockwart wurde in der DDR der IM und dann in der BRD der Maskenwart: „Maske auf!“. Zu viele machten mit. Zu wenige verweigerten sich. Zu viele hielten ängstlich den Mund, zu wenige sagten: „Alles dichtmachen“. Zu viele verunglimpften diejenigen, die ihren Verstand benutzten, als Coronaleugner, Schwurbler, umstrittene Wissenschaftler, Querdenker, Aluhutträger. Der Weg war früher nicht weit vom Rassenfeind zum Klassenfeind – und ist heute nicht weit vom Delegitimierer zum Putinversteher.

Argumente? Wozu? Die Diskussion wird mit verbalen Totschlägern geführt, den Nazikeulen. Die Argumente zählen nicht im Gebrüll. Wichtig ist schon lange nicht mehr, was gesagt wird, sondern wer es gesagt hat und wem das Gesagte womöglich nützen könnte.

Was ist bloß los mit Euch?

Ich möchte Euch ein Zitat meines hochverehrten Freundes Henryk M. Broder zurufen: „Wenn ihr euch fragt, wie das damals passieren konnte: weil sie damals so waren, wie ihr heute seid.“

Der Beitrag erschien zuerst bei ACHGUT hier

 




Kohle, Gas, Öl, Kernenergie? – Teil 1

von Klaus-Dieter Humpich

Wenn man sich über die Zukunft der Energieversorgung einen Überblick verschaffen will, darf man die aktuellen Entwicklungen bei den fossilen Energieträgern nicht außer acht lassen. Insbesondere für die Stromversorgung wird das gegenseitige Wechselspiel dieser Energieträger auch weiterhin bestimmend bleiben.

Am Anfang steht die Kohle

Kohle ist der billigste Energieträger, sofern man

  • billige Arbeitskräfte zur Verfügung hat. Dies war in der Vergangenheit in Europa genauso der Fall, wie heute noch in Indien, China und Afrika. Mit steigendem Lohnniveau steigen auch die Produktionskosten der Kohle. Je höher der Entwicklungsstand einer Industriegesellschaft ist, je geringer ist der Anteil der Kohle an den verbrauchten Primärenergieträgern. Man könnte auch sagen, je einfacher es ist einen Arbeitsplatz außerhalb eines Bergwerkes zu finden.
  • Günstige geologisch Verhältnisse und kostengünstige Transportwege hat. Es lohnt sich sogar in Deutschland (minderwertige) Braunkohle in rationellen Tagebauen zu gewinnen oder Steinkohle über preiswerte Schiffstransporte aus anderen Kontinenten herbeizuschaffen.
  • Kohle umweltbelastend verbrennen kann. Kohle verbrennt nicht rückstandslos, sondern bildet Asche, die Mineralien, Schwermetalle und radioaktive Stoffe enthält. Ferner entstehen z. B. schweflige Säure und Stickoxide. Alles Dinge, die man nicht so gern in der Atemluft oder dem Trinkwasser haben will.

Der letzte Punkt ist entscheidend und wird oft übersehen. In einem armen Land beginnt die wirtschaftliche Entwicklung immer mit Umweltbelastungen. Die Belastung wird gegenüber dem Wohlstandsgewinn nicht als negativ empfunden. Außerdem gilt auch hier wieder die Konzentration: Die wenigen Anlagen mit hohem Schadstoffausstoß können (noch) gut von Mensch und Natur ertragen werden. Ab einem gewissen Punkt schlägt diese Entwicklung ins Gegenteil um. Das war vor etwa 60 Jahren im Ruhrgebiet nicht anders als heute in Peking.

Ein schornsteinloses Kraftwerk nach deutschem Standard (Entstaubung, Entstickung und Rauchgaswäsche) kostet aber bereits heute in China oder Indien mehr als ein Kernkraftwerk. Es setzen Ausweichbewegungen auf breiter Front ein. Der relative Anteil an dem Primärenergieverbrauch sinkt. Wo — zumindest kurzfristig — keine Ersatzbrennstoffe in ausreichender Menge zur Verfügung stehen, wird ein Teil der Kohle bereits an der Grube in Gas und flüssige Kohlenwasserstoffe umgewandelt. Solche Anlagen sind aber sehr teuer und verlagern die Umweltbelastungen oft nur oder erzeugen neue Probleme. Solche Anlagen benötigen z. B. große Mengen Wasser. China plant z. B. gigantische Industrieanlagen zur Produktion von synthetischem Erdgas aus Kohle ausgerechnet in seinen Wüstengebieten, das dann mit Pipelines in die Verbrauchszentren nahe der Millionen-Städte transportiert werden soll. Man hofft, einen Teil der in solchen Anlagen zur Veredelung zusätzlich verbrauchten Energie über Kernreaktoren bereitstellen zu können. Auch kein ganz neuer Gedanke: In Deutschland startete man einst die Entwicklung der Hochtemperaturreaktoren unter dem Slogan Kohle und Kernenergie.

Erdgas als saubere Energiequelle

Vielfach wird die Lösung aller Probleme im Erdgas gesehen. Erdgas ist ein sauberer Brennstoff der keinen Schwefel (mehr) enthält, keine Asche hinterlässt und sich besonders einfach und umweltfreundlich (geringe Stickoxidbildung) verbrennen läßt. Erdgaskraftwerke sind außerdem die Kraftwerke mit den geringsten Investitionskosten und der kürzesten Bauzeit. Auch in der Industrie und der Gebäudeheizung ist Erdgas universell gut einsetzbar.

Erdgas hat nur einen Nachteil, es ist ein teurerer Brennstoff — zumindest in großen Teilen der Welt. Allerdings hat sich durch technischen Sprünge in den letzten Jahren bei der Nutzung von Schiefergas (shale gas), tight gas in schwer durchlässigen Sandsteinschichten und Kohlenflözgas aus unwirtschaftlichen Lagerstätten, eine völlig neue Situation ergeben. Unterstütz wird diese Entwicklung durch die Fortschritte bei der Verflüssigung von Erdgas. Durch sie wird es möglich, einerseits Erdgasvorkommen in entlegensten Regionen nutzbar zu machen und andererseits völlig neue Anwendungen auf der Verbrauchsseite zu erschließen (Antrieb von Schiffen und schweren LKW).

Um diese Entwicklung besser zu verstehen, scheint es nötig, etwas näher auf diese Technik einzugehen. Genauer gesagt handelt es sich um die neuartige Kombination dreier bekannter Techniken: Die großräumige Erschließung dünner Schichten durch „waagerechte“ Bohrungen, die genaue räumliche Bestimmung solcher Schichten durch neue Meßverfahren und verbesserte Berechnungen und das „aufsprengen“ solcher Schichten durch Flüssigkeiten (hydraulic fracturing oder kurz „fracking“).

  1. Um eine solche Lagerstätte anbohren zu können, muß man sehr genau die Schichtung kennen. Hierzu wird der Untergrund mit Schallwellen durchleuchtet. Neuartig ist die vierdimensionale Auswertung der Meßwerte. Aus den empfangenen Echos kann ein genaues räumliches Bild der Erdschichten erstellt werden. Diese Schichten können auch noch in ihrem zeitlichen Verlauf über die Nutzung simuliert werden. Allerdings sind hierfür unvorstellbar viele Rechenoperationen nötig. In den Rechenzentren dieser Firmen stehen die zur Zeit schnellsten Rechner. Sie werden lediglich (geringfügig) von der Leistung der Rechner in den Kernforschungszentren übertroffen.
  2. Das Bohren bis in die Tiefe der Lagerstätten erfolgt völlig konventionell: Während des eigentlichen Bohrvorganges wird das Loch durch die Spülflüssigkeit (mud) stabilisiert. Sie muß nicht nur das Bohrklein nach oben transportieren, die Wand stützen, absperren gegen eindringende Flüssigkeiten, sondern soll auch kühlen und schmieren. Der „mud man“ ist auf jeder Bohrstelle einer der wichtigsten Spezialisten, der seine Spülflüssigkeit ständig den sich ändernden Verhältnissen anpassen muß. Bei den Herstellern seiner Zutaten handelt es sich um eine milliardenschwere Industrie, die nur eingeweihten vertraut ist. Nach und nach wird das Bohrloch mit Stahlrohren ausgekleidet, die jeweils gegenüber dem Gestein durch Zementinjektionen verankert werden. Bis es überhaupt zum „fracking“ kommt, ist das Bohrloch mit mehreren solchen konzentrischen Schichten ausgekleidet. Nach jeder Schicht wird durch eine Druckprobe deren Dichtigkeit festgestellt. Dieser Arbeitsschritt wird so ausführlich geschildert, um den Schauergeschichten von einer Gefahr für das Grundwasser entgegen zu treten. Bis hierhin handelt es sich um die gleichen Arbeitsschritte, wie bei jeder anderen konventionellen Bohrung auch. Das Risiko einer Verseuchung (von oberflächennahen Trinkwasserschichten) ist mithin genauso groß — oder besser — klein. Die Lagerstätten liegen zudem hunderte Meter unterhalb jeder nutzbaren Grundwasserschicht.
  3. Ist die notwendige Tiefe erreicht, wird die Bohrung in die Horizontale umgelenkt. Hierzu ist es notwendig, auf einen durch einen Motor unmittelbar hinter der Krone angetriebenen Bohrer zu wechseln. Ein solcher Motor ist üblicherweise ein Schneckenantrieb, der einem Fleischwolf ähnelt. Die Spülflüssigkeit treibt die Schnecke vor ihrem Austritt aus der Bohrkrone an. Wegen der sich ständig ändernden geologischen Verhältnisse ist es schon nicht einfach, senkrecht nach unten zu bohren. Einer Schicht im Untergrund auf wenige Dezimeter genau zu folgen, ist eine Kunst. Man muß ständig messen, wo man sich genau in der zu folgenden Schicht (siehe Punkt 1) befindet und dem Verlaufen des Bohrers ständig korrigierend entgegenwirken. Hierzu dienen hydraulisch ausfahrbare Leisten am Bohrgestänge. Durch eine individuelle Ansteuerung können sie sich an der Bohrwand abdrücken.
  4. Ist die Bohrung in einer mehrere Kilometer langen Schicht fertig, beginnt erst das eigentliche „fracking“. Anfangs hat man in einem Schritt auf der ganzen Länge Risse erzeugt. Heute geht man in bis zu 30 einzelnen Abschnitten vor. Hierzu werden mit Sprengladungen kleine Anrisse in der Wand des Lochs erzeugt. Anschließend wird ein Flüssigkeits-Sand-Gemisch unter hohem Druck hinein gepreßt. Die Flüssigkeit bricht das Gestein auf und der Sand soll die entstandenen Risse dauerhaft offen halten. Wichtig zum Verständnis der Gefahren ist dabei, daß hier viele kurze Risse erzeugt werden. Man will ja gerade nicht die dünne gasführende Schicht durchdringen, sondern man will das enthaltene Gas schließlich gewinnen! Kein Mensch gibt für eine solche Bohrung zwischen einer bis zehn Millionen Dollar aus, um „sein Gas“ irgendwo im Untergrund verschwinden zu lassen.
  5. Zum Schluß muß vor dem Beginn der Förderung alle Flüssigkeit wieder raus aus dem System. Es ist nicht vermeidbar, daß während der Arbeiten Salze etc. in der Flüssigkeit gelöst werden. Es ist also eine mehr oder weniger giftige Brühe die da hoch kommt. Anfangs hat man die einfach in den nächsten Fluß gegeben. Auch das war — bei den Anfangs noch kleinen Mengen — kein großes Problem. Heute hat man aber über eine Million Bohrungen durchgeführt. Im Schnitt werden in den USA 100 „fracks“ pro Tag ausgeführt. Deswegen werden die Abwässer heute in dafür vorgesehene unterirdische Schichten verpreßt oder das Wasser wird bei Frischwassermangel wieder (kostspielig) aufbereitet. In manchen Fällen ist es ohnehin sogar günstiger mit Propan-Butan-Gemischen („Feuerzeug-Gas“) zu arbeiten.

An dieser Stelle sei ein Einschub gestattet: Kann sich noch jemand an den Medienrummel um die Nutzung von Geothermie vor einigen Jahren erinnern? Der Grüne-Un-Verstand wollte damit die Grundlastversorgung in Deutschland sicherstellen. Die Arbeitsschritte 4 und 5 sind dafür genauso nötig. Nur die Risse müssen für Geothermie hunderte Meter lang sein und das Wasser löst (nach erfolgter Abkühlung) beständig weiter „Schadstoffe“ aus dem Untergrund. Aber Geothermie ist halt politisch korrekt und „fracking“ böse. Zum Glück ist es nach den ausgelösten (und bei jeder Rissbildung unvermeidlichen) Mikrobeben still um die Geothermie in Deutschland geworden.

Die Dauerhaftigkeit der Fracking-Methode

Diskutiert wird die Nutzung solcher Vorkommen. Tatsache ist, daß die Fördermengen einer solchen Bohrung in den ersten Jahren um bis zu 80% abfallen. Das sind gänzlich andere Verhältnisse als bei einer konventionellen Lagerstätte. Allerdings liefert auch eine Fracking-Bohrung über Jahrzehnte Gas. Prinzipiell ist das kein Hindernis: Das Fördergebiet muß nur groß sein und man muß ständig weiter bohren. Solange man mehr für das geförderte Gas bekommt, als das Loch gekostet hat, lohnt sich die Sache. Das ist allerdings der Interessenkonflikt zwischen Verbraucher und Förderer. Sinken die Preise unter ein bestimmtes Niveau ab, wird die Bohrtätigkeit eingestellt. Eine resultierende Explosion der Erdgaspreise wäre die Folge. Deshalb versucht man durch mehrere Verflüssigungsanlagen und Export die Nachfrage zu vergleichmäßigen. Ziel ist eine kalkulierbare Preisstabilität. Sie soll den Anreiz für Investitionen in Großverbraucher (Kraftwerke, Chemieanlagen) schaffen. Besonders wichtig, sind absehbar langfristig günstige Preise, für den weiteren Ausbau der Infrastruktur im Verkehrssektor.

Ein weiterer Aspekt ist, daß man derzeit nur etwa 5% der in einer Schicht enthaltenen Kohlenwasserstoffe fördern kann. Die noch vorhandenen 95% in einem voll erschlossenen Fördergebiet sind ein nicht zu unterschätzender Anreiz. Man arbeitet bereits an sekundären Fördermethoden. Würde es gelingen, nur weitere 5 Prozentpunkte zu gewinnen, würde das den vorhandenen Schatz verdoppeln — wohlgemerkt, bei dann bereits vorhandener Infrastruktur.

Zumindest in den USA dürfte die Gasförderung für Jahrzehnte auf dem heutigen Niveau weiterlaufen. Allen Unkenrufen der „Peak-Oil-Fraktion“ zum Trotz, besteht noch beträchtliches Entwicklungspotential bei bekannt hohen Kohlenwasserstoffgehalten in den Lagerstätten.

Allerdings sind die Erfahrungen nicht ohne weiteres auf andere Regionen übertragbar. Die gesamte „Shale-Revolution“ ist nicht von den großen Ölkonzernen, sondern von mittelständig geprägten Ölfirmen in den USA angetrieben worden. Solche Strukturen gibt es praktisch nicht außerhalb der USA. Deswegen sind die Fortschritte in Argentinien, Polen und China bisher enttäuschend verlaufen. Es wären grundlegende Wirtschaftsreformen in diesen Ländern nötig, um den Erfolg nachvollziehen zu können. Russland ist technisch und finanziell kaum in der Lage, seine konventionelle Förderung ohne westliche Technik aufrecht zu erhalten. Bei seinem derzeitigen politischen Kurs, dürfte die Entwicklung der dort ebenfalls reichlich vorhandenen Vorkommen für Jahrzehnte auf Eis liegen. Am ehesten dürfte noch China zu Zugeständnissen an US-Firmen bereit sein, da es wegen seiner Luftverschmutzung unter einem enormem Druck steht.

Und nun auch noch Öl

Öl ist in letzter Zeit mehr und mehr aus dem Blickfeld der breiteren Öffentlichkeit geraten. Noch vor wenigen Jahren wurde das baldige Ende der Ölfelder (peak oil) vorausgesagt. Die Welt sollte in Kriege um die letzten Ölfelder untergehen oder der Kapitalismus wegen steigender Ölpreise in sich zusammenbrechen. All diese Katastrophen-Szenarien sind heute unwahrscheinlicher denn je. Leuchtendes Beispiel sind die USA mit ihrem nahen Aufstieg zum größten Ölproduzenten der Welt. Ihr Netto Ölimport fällt beständig und es wird immer lauter über Ölexporte nachgedacht. Aussenpolitisch und weltwirtschaftlich werden die Konsequenzen in Deutschland noch gar nicht richtig wahrgenommen.

Unkonventionelle Ölvorkommen

In einer funktionierenden Marktwirtschaft wie den USA, haben die vor ein paar Jahren steil ansteigenden Ölpreise sofort einen neuen „Goldrausch“ ausgelöst. Jeder wollte sich ein Stück vom Kuchen abschneiden. Außerhalb von Politzirkeln und Konzernzentralen übernahmen die Tüftler die Initiative. Mit ungeheuerlicher Beharrlichkeit und großen persönlichen Risiken wurde die „shale revolution“ geschaffen. Wie war das möglich?

Auf der Erde sind Kohlenwasserstoffe gar nicht so selten, wie uns die unverbesserlichen „Malthusianer“ gerne einreden möchten. Die Verfügbarkeit ist variabel und hängt von der technischen Entwicklung und dem Preisniveau (Nachfrage) ab. Die Technik — sofern man sie nicht politisch behindert — schreitet immer weiter voran. So hat die oben beschriebene „neue Technik“ zur Gasförderung auch unmittelbar Eingang in die Ölproduktion gefunden. Parallel drang man in die Tiefsee vor. Die Robotertechnik erlaubt heute Ölförderung in tausenden Metern Wassertiefe. Durch diese technischen Entwicklungen sind die Landkarten praktisch neu gezeichnet worden. Gehört es noch heute zur Grundüberzeugung in Deutschland, daß die USA den Golfkrieg nur wegen des Öls geführt hätten, sind die USA inzwischen zum führenden Ölproduzenten aufgestiegen und fangen bereits mit den ersten Exporten an (Kondensate nach Asien, Bau von LNG-Terminals an der Golf- und Ostküste).

Ein Grund für die momentan eher sinkenden Ölpreise ist das gemeinsame Auftreten von Öl und Gas: Es gibt kaum reine Ölvorkommen (z. B. Ölsände in Kanada) oder reine Gasvorkommen. Vielmehr kommt bei der Ölförderung praktisch immer auch Erdgas und bei der Gasförderung immer auch Erdöl (Kondensate, wet gas) mit hoch. Bei der Ölförderung kann man sich (anfangs) mit einem Abfackeln an Ort und Stelle helfen. Die Kondensate der Gasförderung hingegen drücken unmittelbar auf die Ölmärkte. Die Mengen sind in den USA inzwischen so groß, daß die Preise ins Bodenlose gefallen sind. Dadurch wird immer weniger leichtes Erdöl (aus z. B. Nigeria) und zukünftig — nach erfolgtem Umbau der Raffinerien — schwerere und saurere Ölqualitäten (aus Venezuela und Saudi Arabien) verbraucht werden. Die Welthandelsströme für Rohöl werden sich innerhalb eines Jahrzehnts völlig umkrempeln. Die drei großen Produzenten USA, Saudi Arabien und Rußland werden sich neue Märkte suchen müssen. Da die USA wegfallen und Europa und Rußland eher stagnieren, wird wohl Asien lachender Dritter sein.

Ausblick auf die laufenden Entwicklungen

Bei den Förderkosten spielen die Kosten für den Bohrplatz und die Bohrung eine wesentliche Rolle. Für die Akzeptanz in der Bevölkerung insbesondere die Anzahl der Bohrplätze. Für jeden „Bohrturm“ muß ein Stück Wald oder landwirtschaftliche Nutzfläche zumindest zeitweise zerstört werden. Diese Bohrplätze müssen noch durch Straßen und Rohrleitungen untereinander verbunden werden. Vereinfachend kann man sagen, je weniger Bohrplätze, desto größer die Akzeptanz. Man versucht deshalb immer mehr Bohrungen von einem Bohrplatz aus abzuteufen („Polypentechnik“). Entwickelt wurde diese Technik für Bohrinseln. Diese Technik bietet auch noch enorme wirtschaftliche Anreize. Jeder Auf- und Abbau und Transport des Bohrgerätes kostet Zeit, in der die Bohrfirma kein Geld verdienen kann.

Egal ob konventionelle oder unkonventionelle Lagerstätten: Nach der Ausbeutung bleiben immer noch über 60% der Kohlenwasserstoffe unerreichbar in den Feldern. Seit Beginn der Ölförderung ist deshalb die mögliche Entölung ein Dauerproblem. Auch hier gilt: Je mehr Öl man fördern will, je anspruchsvoller die erforderliche Technik und damit überproportional steigende Kosten. Je besser man die Lagerstätten versteht und simulieren kann (s. o. Punkt 1.), desto gezielter kann man „chemische Cocktails“ zur Loslösung der Restöle entwickeln. Diese Forschung ist der Forschung in der Pharmaindustrie zur Entwicklung neuer Medikamente sehr verwandt. Momentaner Renner ist die Verwendung von CO2 als Lösungsmittel. Die Ergebnisse sind so vielversprechend, daß sich CO2 bald von einem „Abfallproblem“ in einen (großtechnisch erzeugten und gehandelten) Wertstoff wandeln dürfte. Erste Anlagen zur Gewinnung von CO2 aus Kohlekraftwerken zur Ölförderung sind in den USA im Bau. Studien für „fortschrittliche Kohlekraftwerke“ in der Golfregion mit seinen zahlreichen alternden Feldern sind Arbeit.

Insbesondere in China gewinnt die unterirdische Kohlevergasung zunehmendes Interesse. Auch in USA und Zentraleuropa gibt es schier unendliche Kohlevorräte in unwirtschaftlichen Tiefen oder in der Form zu dünner Flöze. Seit je her gab es Pläne, diese Kohle durch Bohrungen und „In-situ-Vergasung“ zu erschließen. Bisher scheiterten diese Versuche an der geringen Durchlässigkeit der Stein-Kohle. Die Methoden des „shale gas“ eröffnen nun ganz neue Möglichkeiten.

In letzter Zeit ist es etwas still um die Methanhydrate geworden. Nichts desto trotz, ist man sich einig, daß ihre Vorräte größer als alle sonstigen Erdgasfelder und Kohlevorräte zusammengenommen sind. Allein dieser Umstand lockt. Es ist nur eine Frage der Zeit, wann die erste kommerzielle Förderung beginnen wird.

Eigenbedarf und Substitution

Alle Energieträger sind irgendwie untereinander verbunden. Die Relationen der Energiepreise sind relativ konstant. Bricht ein Energieträger aus, wie vor ein paar Jahren die Ölpreise, setzt sofort eine Verschiebung unter allen anderen Energieträgern ein.

Eine besonders bemerkenswerte Substitution findet gerade in Saudi Arabien statt. Es hat 9,6 Millionen Barrel Rohöl pro Tag in 2013 produziert. Inzwischen steht es aber mit seinem Primärenergieverbrauch an zwölfter Stelle (Deutschland Rang 7, Frankreich Rang 10, Großbritannien Rang 13) weltweit. Es deckt über 60% seines Eigenverbrauchs mit Erdöl ab. Die Produktion von knapp 300 TWh (Deutschland rund 600 TWh/a) elektrischer Energie jährlich geschieht ausschließlich in Öl und Gaskraftwerken. Man will nun in den nächsten Jahren 0,5 Millionen barrel Öl pro Tag „gewinnen“, indem man die Feuerung in einigen Ölkraftwerken auf Erdgas umstellt. Damit jedoch nicht genug. Da Stromverbrauch und der Energiebedarf für Meerwasserentsalzung auch in den nächsten Jahren stark ansteigen wird, ist der Bau von mindestens 14 Kernkraftwerken in den nächsten zwanzig Jahren geplant. Die Vereinigten Emirate haben bereits vier Reaktoren im Bau und Iran plant ebenfalls weitere Kernkraftwerke.

Ausblick

Teil 2 wird sich mit der Situation der Kernenergie unter diesen Randbedingungen befassen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Renaturierung (Wiedervernässung) meliorierter Moore – ein kontraproduktives „Klimaschutz“-Narrativ

von Dr. Arthur Chudy

Vorbemerkung: Man sollte nicht mit in den Raum gestellten Zahlen Projekte (Klimaschutz) konzipieren, ohne Grundkenntnisse über die ursächlichen Zusammenhänge zu haben. Daher wird in diesem Beitrag die Problematik fundamental in Bezug zum Atmosphären-BiosphärenRezyklierungssystem der Erde betrachtet, um vorherrschende Irreführungen zu entkräften.

Das Atmosphären-Biosphären-Rezyklierungssystem der Erde

Die Erde ist ein Unikat im Weltall, dies insbesondere durch die Atmosphäre, mehr noch durch das einmalige Atmosphären-Biosphären-Rezyklierungssystem für Sauerstoff, Kohlendioxyd und Wasser, das das Leben auf der Erde ermöglicht und trägt (siehe Abbildung 1). Ein wesentliches Element ist der Kohlendioxydkreislauf.

Biosphären-Atmosphären Rezyklierungssystem_3.gif

Abbildung 1: Atmosphären-Biosphären-Rezyklierungssysem der Erde

Die einzige wesentliche Energiequelle für die Erde ist die Sonne, die je nach Strahlungsintensität (Warm- und Kaltzeiten) den Wärmehaushalt (Globaltemperatur) der Erde speist.

Die unterschiedlichen auch vom Grad der Neigung der Erdachse beeinflussten Einfallswinkel der Sonnenstrahlung führen zu großen klimatischen Unterschieden in den verschiedenen Erdregionen und werden in den Klimazonen erfasst und definiert.

Die Nutzung der Sonnenenergie erfolgt in zwei Richtungen – der physikalischen im Wärmehaushalt und der biogenen, im Wesentlichen durch die lebenden grünen Pflanzen bei der Assimilation. Bei der physikalischen Nutzung geht es um das Gleichgewicht zwischen Erwärmung der Luft und der Erdoberfläche (Boden und Wasser) sowie der Rückstrahlung von der Erdoberfläche in die Atmosphäre als auch um Strahlung von Molekülen wie Wasser (H2O), Kohlendioxyd (CO2) und Methan (CH4), die Strahlungsenergie aufnehmen und in alle Richtungen, also auch zurück zur Erdoberfläche als Gegenstrahlung abgeben können. Das ist bei CO2 marginal, was sich allein angesichts der geringen Menge von 0,04 % atmosphärischem CO2 ergibt!

Den natürlichen Beweis dafür liefert der „Wüsteneffekt“. Die tagsüber von der Sonne bis über 30° C aufgeheizten Sande kühlen nachts bis zu Minusgraden bei gleichem CO2-Gehalt der Luft wie überall ab. Ursache sind die fehlenden Wassermoleküle in Form von Luftfeuchtigkeit und Wolken! Eine Erfahrung, die auch wir kennen. Bei sternklarem Himmel sinken die Nachtemperaturen wesentlich stärker ab als bei wolkenbehangenem Himmel.

Im Ergebnis finden diese physikalischen Vorgänge dann letztendlich summa summarum standortspezifisch in der Luft-, Boden- und Wassertemperatur ihren Niederschlag.

In diesem Zusammenhang muss auch auf das IPCC Narrativ vom menschengemachten Klimawandel und die daraus abgeleitete Dekarbonisierung als vermeintliche Klimaschutzmaßnahme eingegangen werden. Man hat zur Begründung bei der Interpretation der Mann´schen Hockeyschläger-Kurve Ursache, die Erderwärmung durch die Sonne, mit der Wirkung, der höheren Biomasseproduktion und dem daraus folgenden höheren CO2-Gehalt der Atmosphäre, vertauscht und dadurch eine scheinbare Abhängigkeit der Globaltemperatur vom atmosphärischen CO2-Gehalt postuliert. Die Irreführung wurde im Pariser dahingehend komplettiert, dass weder für vorindustriell noch für das 2050-Ziel eine absolute Globaltemperatur an- bzw. vorgegeben wurde, man ein Inkognito 1,5 ° C bzw. 2 °C Ziel in den Raum gestellt hat, das jedwede Interpretation offen lässt.

Eine Sinnhaftigkeit der Dekarbonisierung der Wirtschaft, warum 22 ppm weltweiter CO2 Emissionen aus fossilen Energieträgern, oder Deutschlands 0,46 ppm (1 CO2-Molekül in 2,2 Millionen Luftmoleküle) bei einem Gesamtgehalt der Atmosphäre von ca. 415 ppm CO2 eine Klimaänderung – und das noch zu Guten, Sonnenschein und Regen wie gewünscht(?) – bringen sollen, konnte bisher wissenschaftlich nicht bewiesen werden, sind reine Zweckpropanda, um die Industriestaaten zu destabilisieren, abzuzocken (Reparationsfond COP 27!), ihres erarbeiteten Lebensstandards zu berauben. Das wird umso fragwürdiger, wenn man in Betracht zieht, dass grüne Pflanzen bei ca 180 pm CO2Konzentration die Assimilation einstellen, was das Ende des Lebens auf der Erde bedeuten würde, d.h. dass das Leben auf der Erde auf der Differenz zwischen atmosphärischem CO2-Gehalt und 180 ppm, derzeit auf 235 ppm (415 – 180 = 235), beruht. Dekarbonisierung ist durch Reduzierung der Biomasseproduktion für die Weltwirtschaft und für die Nahrungsgüterproduktion zur menschenwürdigen Ernährung der wachsenden Weltbevölkerung kontraproduktiv.

Die biogene Nutzung der Sonnenenergie erfolgt durch die grünen Pflanzen bei der Assimilation, der wichtigsten und einzigen elementaren Stoffproduktion (Biomasse) auf der Erde sowie im Bereich der Organismen (Mensch, Tier etc.) in der Aufrechterhaltung der Körpertemperatur als Voraussetzung für deren Funktionsfähigkeit.

Die Trägerstoffe des Lebens auf der Erde sind Kohlendioxyd (CO2), Sauerstoff (O2), Wasser (H2O) und der nicht-atmosphärische Stickstoff (N). Bei der Assimilation werden durch grüne Pflanzen atmosphärisches Kohlendioxyd(6 CO2 = 264 g) plus Wasser (6 H2O = 108 g)) mit Hilfe der Sonnenenergie (2872 kJ/mol) zu Kohlenhydrat (Glukose (C6H12O6 = 180g )) als biogener Energieträger (Nährstoff) synthetisiert plus Sauerstoff (6O2= 192 g) in die Atmosphäre freigesetzt (0,727 t O2/t akkumuliertes atmosphärisches CO2), d.h. in der Menge rezykliert, die bei der Dissimilation (Abbau) zuvor verbraucht wurde bzw. später verbraucht wird. Dadurch wird der Sauerstoffgehalt der Atmosphäre aufrecht erhalten/reproduziert. Ohne diese Rezyklierung des Sauerstoffs würde das Leben auf der Erde „ersticken“.

Die produzierte Biomasse ist Vorleistung und wird in der Folge in der Dissimilation unter Verbrauch von atmosphärischem Sauerstoff auf zwei Wegen mit gleichem Endresultat, zur Gewinnung an biogener Energie in Organismen (Mensch, Tier etc.) oder bakteriell durch Verwesung, abgebaut. Unter Ausschluss/Fehlen von Sauerstoff erfolgt eine anaerobe Vergärung (Pansen der Wiederkäuer, intakte und „renaturierte“ Moore), wobei der naszierende zellgiftige Wasserstoff an Kohlenstoff zu Methan (CH4) gebunden und in die Atmosphäre als Schadstoff „entsorgt“ wird.

Dissimilation der Kohlenhydrate: (C6H12O6 = 180 g) plus Sauerstoff (Atmung) (6 O2 = 192 g) werden zur biogenen Energiegewinnung umgesetzt zu Kohlendioxyd (6 CO2 = 264 g) plus Wasser (6 H2O = 108 g). Das Kohlendioxyd entsteht nicht durch Oxydation von Kohlenstoff mit Sauerstoff, sondern wird im enzymatischen Prozess ohne Energiegewinn abgespalten (Dekarboxylierung) und in die Atmosphäre abgeführt, d. h. rezykliert als atmosphärisches CO2 als Träger- und Rohstoff für eine erneute Akkumulation in der Assimilation, d.h. für erneute Biomasseproduktion. Die biogene Energiegewinnung erfolgt ausschließlich durch die Oxydation von Wasserstoff und Sauerstoff zu Wasser. Damit wird das zur Stoffproduktion (Kohlenhydraten) verbrauchte Wasser rezykliert und an die Umwelt (Boden und Atmosphäre) abgeführt.

Damit erweisen sich im Atmosphären-Biosphären-Rezyklierungssysem Kohlendioxyd und Wasser als unzerstörbare und unendlich nutzbare (wiederverwendbare) Oxyde und Sauerstoff als unendlich nutzbares Element, d.h. als Trägerstoffe des Lebens (Lebenselixiere) ohne natürliche Verbrauchsverluste.

Es ist ein in sich geschlossenes Atmosphären-Biosphären- System mit voller Rezyklierung der Verbauchselemente. Eine Steigerung des Umfangs und der Intensität dieser Kreislaufsysteme ist nur durch eine Veränderungen der Biomasseproduktion (Kalt- und Warmzeiten, Züchtung und Anbau ertragsreicher Kulturen) und im Sinne der Steigerung auch durch externe Zuführung von CO2 , wie aus der Verbrennung fossiler Energieträger, prinzipiell möglich und erstrebenswert.

Hieraus folgt, dass der atmosphärische CO2-Gehalt Ausdruck des Gleichgewichtes zwischen CO2Emission und CO2-Akkumulation (Assimilation) ist und damit die Intensität des CO2-Kreislaufs, die Höhe der Biomasseproduktion, reflektiert. Eine hohe Biomasseproduktion ist nur bei hoher CO2 Konzentration in der Atmosphäre möglich. Das ergibt sich daraus, dass die Aufnahme von Luft durch die Blattspalten der begrenzende Faktor ist. Bei 400 ppm CO2-Gehalt der Luft müssen die grünen Pflanzen 15.000 Liftmoleküle aufnehmen, um 6 Moleküle CO2 für die Synthese von einem Molekül Glukose heraus zu filtrieren. Hohe CO2-Gehalte erhöhen somit die Effizienz der Assimilation, führen zur Erhöhung der Grünmasseproduktion, der Erträge in der Land- und Forstwirtschaft.

Da der CO2-Kreislauf in der Atmosphäre nur in Richtung von Emission zur Akkumulation abläuft, ist die CO2-Emission der Impulsgeber, der Sende-Faktor, während die Akkumulation der Empfänger, der empfangende (passiv abhängige) Faktor ist, wird, egal woher das CO2 kommt, ob aus natürlichen Umsetzungen oder aus Verbrennung fossiler Energieträger, die CO2 Emission zum entscheidenden das Leben auf der Erde erhaltenden und mehrenden Faktor, zum wichtigsten Lebenselixier. Ohne CO2-Emissionen würde das Leben auf der Erde versiegen.

Diese Rezyklierungsprozesse können im Hinblick auf die Höhe der Biomasseproduktion weitestgehend unbegrenzt hochgefahren werden, was für die Sicherung der Ernährung einer wachsenden Weltbevölkerung von außerordentlicher Wichtigkeit ist.

Folgerungen für Moore und Renaturierung

Welche Folgerungen ergeben sich aus diesem Grundwissen für die Moore:

Moore sind fossile Kohlenstofflagestätten mit einem Kohlenstoffdepot, das nicht in den aktiven CO2Kohlenstoff-Kreislauf in der Atmosphäre integriert und damit auch nicht an der Biomasseproduktion der Erde beteiligt ist, d.h. als externes Kohlenstoffdepot, analog Kohle-, Erdöl- und Erdgaslagestätten zu werten ist. Moore sind keine Kohlenstoffsenken, sondern Kohlenstofflagerstätten unter Wasser, die im Falle von Torfgewinnung ebenso als fossile Energieträger mit geringer Energiedichte genutzt werden können.

Meliorierte Moore

Meliorierte und damit wasserstandsregulierte Moore sind komplexe Gebilde. Sie bestehen aus dem oberirdischen Teil, in der Regel Kultur-Grasanbau mit hohen weitestgehend witterungsunabhängigen Grünmasseerträgen, d. h. sind landwirtschaftliche Nutzfläche zur Wertschöpfung mit hoher Akkumulation an atmosphärischem CO2, 12 – 25 t CO2-Äquivalente/ha und Jahr, liefern Biomasse für Tierfutter und Energieerzeugung durch Biogaserzeugung und Verbrennung. Das akkumulierte CO2 wird beim Verbrauch der Biomasse in die Atmosphäre emittiert, d.h. rezykliert und über die Atmosphäre in den CO2-Kreislauf eingespeist und steht zur erneuten Produktion von Biomasse zur Verfügung.

Hinzu kommt die hohe und wenig berücksichtigte Freisetzung an Sauerstoff (0,727 t/t CO2 Akkumulation = 8,72 t – 18,2 t O2/ha und Jahr) als auch die enorme Leistung des Grases in der Wassertranspiration zur Entwässerung und der Erhöhung der Luftfeuchtigkeit. Es gibt insgesamt gesehen oberirdisch keinen Unterschied zu anderen landwirtschaftlichen Kulturen. Die Unterschiede sind unter der Grasnarbe, in der Zusammensetzung und der Struktur des Moorbodens. Charakteristisch für Moorböden ist der hohe Anteil an organischer Substanz. Diese setzt sich zusammen aus dem postglazial durch Inkohlung entstandenen amorphen Moorkohlenstoff, unterirdischer Biomasse (aktive und abgestorbene Wurzelmasse, pflanzliche Rückstände, Tiere (lebend oder tot) und Mikroorganismen). Entscheidend ist zu differenzieren zwischen dem amorphen Kohlenstoff in Einzelkornstruktur, der die Schwarzfärbung des Moorbodens verursacht, und Bestandteilen mit organisch, d.h. mit Wasserstoff, Sauerstoff und Stickstoff gebundenem Kohlenstoff.

Der amorphe Kohlenstoff oxydiert nicht in Gegenwart von Luft (Luftsauerstoff), so wie Kohlen und Torf im Keller nicht wegoxydieren. Amorpher Kohlenstoff bedarf einer hohen Aktivierungsenergie um zu oxydieren, bedarf auch in trockenem Zustand hoher externer Energiezufuhr(Blitzeinschlag, Granaten, etc. wie Kohlenanzünder) und ist daher auch bakteriell nicht umsetzbar. Das bedeutet, der amorphe Moorkohlenstoff ist an CO2-Emissionen nicht beteiligt. Aktive Wurzelmassen erzeugen Atmungs- CO2 und abgestorbene Bestandteile (Pflanzenreste) mit organisch gebundenem Kohlenstoff können und werden aerob bakteriell abgebaut (Mineralisierung). Dabei entsteht Kohlendioxyd durch Dekarboxylierung und mündet wie alles natürlich biogen entstandene CO2 im natürlichen CO2-Kreislauf als Rohstoff für die CO2 – Akkumulation in Form von Biomasse. Der Umfang dieser Umsetzungen ist nicht sehr hoch und geht infolge mangelnder Nachlieferungen mit den Nutzungsjahren stark zurück, geht gegen Null.

Der meliorative Wasserentzug des Moorbodens (richtig ist 30 cm unterflur) führt zu irreversiblen Strukturveränderungen der vorwiegend in Einzelkornstruktur vorliegenden Bestandteile (Moorkohlenstoff und Mineralbestandteile), zu Volumenreduktion und Verdichtung, zu Sackungen. Durch die sinnvolle Bewirtschaftung ist durch Kulturgrasanbau zunehmend eine Verbesserung der Bodenstruktur durch Aggregation zu Komplexen im aktiven Nutzungsbereich zu erreichen.

Ein besonders brisantes Thema sind die postulierten und allein in den Raum gestellten CO2Emissionen. Die CO2-Emissionen sind seitens der Moorschützer nicht klar definiert worden. Vermutlich haben sie die CO2-Akkumulation im Grünmasseertrag den Behörden als Emission „verkauft“. Anders sind diese Angaben nicht zu verstehen.

Die exorbitant hohen Emissionsangaben von beispielsweise 20 und 25 t CO2-Äquivalenten/ha und Jahr sind wissenschaftlich ursächlich nicht nachvollziehbar. Das sind rein fiktive Angaben. So müssten bei 20 t CO2/ha 5,4 t Kohlenstoff mit 14,6 t/ha Sauerstoff (O2) oxydiert werden. Das wäre eine einem Getreideertrag von 100 dt Korn und 40 dt Stroh/ha entsprechende Kohlenstoffmenge, die unterirdisch im feuchten Milieu oxydiert, das entstandene spezifisch als Luft schwerere CO2 in die Atmosphäre (10,2 Mill. l) ausgebracht und Luft-Sauerstoff in großer Menge (12,7 Mill. l O2 bzw. 60,8 Mill. l Luft)) eingebracht werden. Wer solche Emissionswerte behauptet, steht in der Pflicht, die Herkunft und die Entstehung wissenschaftlich begründet nachzuweisen!

Solche Emissionen zu benennen ohne Gegenbilanzierung der CO2-Akkumulation – zumindest im Grünmassertrag, eigentlich gehört die Wirzelmasse auch noch dazu – ist wissenschaftliche Inkompetenz oder beabsichtigter Betrug. Entscheidend für die Bewertung eines Standorts ist die jährliche ökologische Bilanz:

Nettoertrag (t CO2-Äquivalente/ha) = Ertrag (Günmasse) t CO2-Äquivalente/ha minus Emission (t CO2 Äquivalente/ha)

Die ökologische Bilanz meliorierter Moore ist bei Erträgen von 12 – 25 T CO2-Äquivalenten/ha und Jahr und realistischen Emissionen von 3 – 5 t CO2-Äquivalenten/ha und Jahr mit einem Nettoertrag von ca. 16 – 20 dt CO2-Äquivalenten/ha und Jahr sehr positiv und liegt voll im Bereich anderer landwirtschaftlicher Kulturen im Ackerbau, d.h. meliorierte Moore sind unverzichtbare Wertschöpfungsflächen, ein hoch zu schätzendes Erbe der Altvorderen Generation.

Renaturierung

Die Renaturierung meliorierter Moore ist eine kontraproduktive Maßnahme und führt mit der Wiedervernässung zur Vernichtung wertvoller Wertschöpfungsfläche, d.h. ertragreicher und ertragssicherer landwirtschaftlicher Nutzfläche und bedeutet den Totalverlust an Wertschöpfung. Sie ist eine Irreführung, denn die Melioration von Mooren ist durch die strukturellen Veränderungen irreversibler, sodass intakte Moore im ursprünglichen Sinne durch Wiedervernässung nicht zurück gewonnen werden können und wozu? – brauchen wir einen Rückschritt ins ökologische Mittelalter.

Intakte Moore und Renaturierungsflächen haben eine niedrige Ertragsleistung an Biomasse und damit eine geringe CO2-Akkumulation. Die anfallende Biomasse wird größtenteils unter Wasser anaerob analog der Pansenvergärung beim Wiederkäuer vergoren und der entstehende naszierende Wasserstoff an den akkumulierten Kohlenstoff gebunden und als Methan nutzlos und schadhaft in die Atmosphäre emittiert. Das bedeutet landwirtschaftliche Nutzfläche wird in nutzloses Unland mit einer durch die Methanemission verursachten Schädigung der Atmosphäre verwandelt. Eine echte Moorbildung findet nicht statt, das es unter unseren ökologischen Bedingungen keine Redox-Potentiale gibt, die organisch gebundenen Kohlenstoff in amorphen Moorkohlenstoff verwandeln können. Die aufschließbaren Pflanzenbestandteile werden zu Methan vergoren und die unvergärbaren Lignin und Kieselsäure enthaltenden Pflanzenbestandteile sedimentieren zu einer Morastschicht, die durch das Fehlen von Moorkohlenstoff mit echtem Moorbodensubstrat nichts gemein hat. Anstelle von nützlichem CO2, das von meliorierten Mooren in den CO2-Kreislauf emittiert wird, schädigen Renaturierungsflächen durch Methanemission die Atmosphäre. Damit werden menschengemacht Flächen etabliert, die laut Forderung des Klimakongresses COP26 zur

Einschränkung der weltweit aus Feuchtgebieten angestiegenen Methanemissionen reduziert werden sollen. Die Renaturierung ist somit ein Verstoß gegen Beschlüsse der COP 26.

Als Schlussfolgerung ergibt sich, dass die meliorierten Moore entsprechend Ihrer

  • hohen Ertragsleistung und CO2-Akkumulation mit normalen nützlichen CO2-Emissionen und einer dementsprechend hohen ökologischen Nettobilanz hoch wertzuschätzen sind und
  • durch Rekultivierung von unter falscher Zielstellung geschaffener Renaturierungsflächen maximal zur Rohstoffproduktion für Lebens- und Futtermittelproduktion sowie der Gewinnung von erneuerbarer Energie ausgebaut werden sollten.
  • Die Spekulationen mit exorbitanten „CO2-Emissionen“ meliorierter Moore und den daraus abgeleiteten „CO2-Einsparpotentialen“ durch Renaturierung, d.h. das Rechnen mit fiktiven Zahlen, ist einzustellen, denn
  • sowohl Moorfutures als auch daraus abgeleitete Begründungen von derartigen

Klimaschutzprojekten ist Betrug an den involvierten Käufern von Zertifikaten/ Verantwortlichen in Behörden/Grundstückeigentümern etc., insgesamt an den eigenen und EU-Behörden, der Gesellschaft und an der Natur!

Renaturierung ist weder Moorschutz noch „Klimaschutz!“ ; sollte grundsätzlich wegen

  • Totalverlust der Wertschöpfung: Unland statt landwirtschaftlicher Nutzfläche,
  • geringer CO2 Bindungskapazität – Moore sind keine „Kohlenstoffsenken“ sondern

Kohlenstoffdepots, die nicht in den aktiven Kohlenstoffkreislauf integriert sind,

  • kein Umwelt- und Moorschutz noch Klimaschutz sondern Umweltschädigung (Atmosphäre) durch permanente Emission von die Atmosphäre (Umwelt) schädigendem Methan (COP 26!);  mangelnder Sinnhaftigkeit- kein Nutzen nur Schaden – auch Paludikulturen (ökonomisches „Feigenblatt“ der sogenannten Moorschützer) sind kein sich wirtschaftlich rechnender Ersatz von ertragsreichem Grünland, sondern (mit wenigen Ausnahmen (Rohranbau z.B.) ökologisch (Methanemission) und ökonomisch kontraproduktiv!

Renaturierung ist grundsätzlich zu verbieten und nur stark eingeschränkt auf wenigen sinnvoll nicht nutzbaren Flächen zugelassen werden.

 

Über den Autor:

Dr. agr. Arthur Chudy ist ein pensionierter Wissenschaftler, geboren 1936. Er hat Landwirtschaft mit Spezialrichtung Agrikulturchemie studiert und hat mehr als 40 Jahre in der Forschung gearbeitet. Sein Arbeitsgebiet war der Energie- und Nährstoffumsatz landwirtschaftlicher Nutztiere sowie EDV Projekte zur Futterproduktion und zur Fütterung der Nutztiere. Er ist Autor von zahlreichen wissenschaftlichen und populären Veröffentlichungen und Mitautor vom mehreren Büchern, darunter the „Rostock Feed Evaluation System“ in English. Dr. Arthur Chudy ist verheiratet, hat zwei Kinder und lebt jetzt auf dem Lande im eigenen Haus. Er ist parteilos und arbeitet als gewählter kompetenter Bürger  Stadtrat seiner Stadt mit.

 

 

 

 

 

 

 

 

 




Energiepolitik: Das Ende der deutsch-französischen Freundschaft?

Edgar L. Gärtner

Um das klar zu stellen: Von echter Freundschaft zwischen den schon seit dem Mittelalter verfeindeten Nachbarstaaten Deutschland und Frankreich konnte auch nach der Unterzeichnung des Elysée-Vertrages zwischen Konrad Adenauer und Charles de Gaulle vor nunmehr 60 Jahren allenfalls auf privater Ebene die Rede sein. In der Wirtschaftspolitik arbeiteten die Regierungen meistens gegeneinander und höchstens nach außen hin einvernehmlich zusammen. Seit einigen Wochen ist aber nun auch offiziell von deutsch-französischer Freundschaft kaum noch die Rede. Wichtigster Stein des Anstoßes ist, wie bereits hier berichtet, das in der EU geltende Merit Order System der Strompreisfindung, das heißt die Ausrichtung des Strompreises an den Produktionskosten der teuersten Anbieter. Dieses Regelung verwehrt es den Franzosen, von den günstigen Produktionskosten seiner zahlreichen Kern- und Wasserkraftwerke zu profitieren.

Der Zustand der Elektrizitätsversorgung Frankreichs ist beinahe so beängstigend wie der Deutschlands – aber aus anderen Gründen. Der seit dem vergangenen Jahr wieder unter staatlicher Kontrolle gekommene Strom-Gigant Électricité de France (EDF) beendete das Geschäftsjahr 2022 mit einem Nettoverlust von fast 18 Milliarden Euro. Dadurch stieg die Verschuldung des Konzerns auf fast 65 Milliarden Euro. Im Jahre 2021 hatte der Konzern noch einen Gewinn von über 5 Milliarden Euro gemeldet. Eigentlich hätte der Konzern auch im Jahre 2022 schwarze Zahlen schreiben müssen, denn sein Umsatz stieg um 70 Prozent auf ungefähr 144 Milliarden Euro. Doch die Politik der EU-hörigen Regierung unter Präsident Emmanuel Macron und Premierministerin Elisabeth Borne verdarb dem eigentlich nicht schlecht aufgestellten Konzern das Geschäft.

Wegen der in Frankreich besonders drakonisch durchgezogenen Politik des Einsperrens der Bevölkerung, um eine angebliche Pandemie aufzuhalten, wurden die Wartungs-Intervalle der 56 Kernreaktoren nicht eingehalten. Hinzu kam die Entdeckung von Korrosionsproblemen an einer Reihe von Kernteaktoren. Das führte dazu, dass nach dem Ende der „Pandemie“ etwa die Hälfte der verfügbaren Reaktoren wegen Wartungs- und Reparaturarbeiten abgeschaltet werden musste. Die nukleare Elektrizitätsproduktion sank dadurch im Jahre 2022 auf den historischen Tiefstand von lediglich 279 TWh – gegenüber 430 TWh im Jahre 2005. EDF musste teuren Strom aus dem Ausland, vor allem Deutschland zukaufen, um einen Blackout zu vermeiden. Gleichzeitig musste der Konzern jedoch aufgrund eines im Jahre 2010 erlassenen Gesetzes 100 TWh zum Schleuderpreis von 42 Euro je MWh an „alternative“ Wettbewerber abgeben. Das kostete EDF 8,34 Milliarden Euro.

Wegen der Entscheidung der Regierung, die Endverbraucher unter einen Tarif-Schutzschild (bouclier tarifaire) zu stellen, um diese von der allgemeinen Preissteigerung für Energieträger vor und nach dem Ausbruch des Ukraine-Krieges auszunehmen, durfte EDF seinen Stromtarif für Privatverbraucher zunächst gar nicht und später auch nur moderat anheben. Hinzu kommen weitere Vergünstigungen für Mitarbeiter und Privatkunden, die auf den starken Einfluss linker Gewerkschaften auf die Geschäftspolitik von EDF zurückgehen. Bei jedem größeren Konflikt drohen die Gewerkschaften mit der Abschaltung von Kernkraftwerken und machen manchmal auch davon Gebrauch. EDF zahlt daher dem Gros seiner Mitarbeiter ohnehin Gehälter, die im nur schwach entwickelten französischen Mittelstand nicht erreicht werden können. Selbstverständlich erhalten die Mitarbeiter ihren Strom fast umsonst. (Auch meine Frau und ich konnten übrigens noch bis vor kurzem davon profitieren, da meine schon im letzten Jahrhundert verstorbene Schwiegermutter bei EDF als Buchhalterin gearbeitet hatte.) Ein Prozent des Konzern-Umsatzes geht an die von den Gewerkschaften kontrollierte Caisse centrale d’activités sociales (CCAS), die u.a. Ferienzentren und Kultur-Einrichtungen betreibt. CCAS zählt etwa 5.000 Angestellte.

Da der „bouclier tarifaire“ sich nun sowohl für den Staat als auch für EDF als unbezahlbar erweist, schlägt die Strompreis-Festsetzung gemäß dem Merit Order System der EU nun zunächst auf die Kleinunternehmen und bald auch auf die Privatverbraucher durch. Zwar konnte EDF seinen Rückstand bei der Wartung und Reparatur seiner Kernreaktoren im vergangenen Jahr ein gutes Stück aufholen. Noch immer fallen aber etliche Reaktoren wegen Reparatur- und Wartungsarbeiten aus. So rechnet Luc Rémont, der neue Chef von EDF, für dieses Jahr vorsichtig nur mit einer Nuklearstrom-Produktion zwischen 300 und 330 TWh, was noch immer nicht allzu weit von dem im vergangenen Jahr erreichten Tiefstand läge. Die französischen Stromkunden haben also ein weiteres schweres Jahr vor sich, zumal die Alpen in diesem Winter kaum Niederschläge abbekommen haben und Stauseen bis zum Sommeranfang möglicherweise halb leer bleiben werden. Erst 2024 könnten die Franzosen wohl wieder von den Vorteilen der Kernenergie profitieren, wäre da nicht das europäische Merit Order System (MOS) der Strompreis-Festlegung, in dem der Strompreis im Wesentlichen vom Gaspreis bestimmt wird und somit der Politik der Berliner Ampel-Regierung dient.

Wie ich bereits berichtete, steht die französische Regierung seit einigen Monaten vor allem seitens kleiner und mittlerer Privatunternehmen, inzwischen aber zunehmend auch seitens der Endverbraucher unter starkem Druck, dem Beispiel Spaniens und Portugals folgend aus dem MOS auszuscheren. Es war erwartet worden, dass Macron und seine Minister diesen Konflikt auf dem großen deutsch-französischen Ministertreffen anlässlich des 60. Jahrestags des Élysée-Vertrags im Januar 2023 zur Sprache bringt. Doch Macron zögerte. Inzwischen ist er aber offenbar, wie die „Frankfurter Allgemeine“ meldet, auf offenen Konfrontationskurs mit Berlin gegangen. Er setzt nun offenbar auf eine Vertiefung der nuklearen Zusammenarbeit mit den USA und sieht sich auch durch die Internationale Energieagentur (IEA) bestätigt, die ein weltweites Comeback der Kernenergie erwartet.

Ausschlaggebend für diese Wendung war offenbar die sture Haltung unseres grünen Wirtschaftsministers Robert Habeck, der der EU-Kommission am 20. Februar nahelegte, ihren für den 14. März angekündigten Vorschlag für den Umbau des europäischen Strom-Marktes auf die Zeit nach den Wahlen zum Europa-Parlament im Jahre 2024 zu verschieben. Stattdessen gab er den Start einer Diskussions-Plattform zum Strommarktdesign für ein klimaneutrales Stromsystem bekannt, über deren Diskussionsstand halbjährlich berichtet werden soll. Robert Habeck erklärte bei der Vorstellung der Plattform: „In der Debatte über das klimaneutrale Stromsystem werden wir uns jetzt damit beschäftigen, wie wir günstige Strompreise sicherstellen; wie wir die richtigen Investitionssignale setzen, damit in Erneuerbare Energien und in Wasserstoff-Kraftwerke investiert wird, und wie das System flexibel wird. Wir brauchen ergänzend zum Netzausbau die regionale Steuerung von Erzeugung und Lasten wie Elektrolyseuren in der Nähe von Offshore-Gebieten. Außerdem sollte Erneuerbarer Strom vor Ort genutzt werden können, anstatt aufgrund von Netzengpässen abgeregelt zu werden.“ Weiter heißt es in der Pressemitteilung des Habeck-Ministeriums: „Die Plattform Klimaneutrales Stromsystem soll in vier thematischen Arbeitsgruppen Optionen zur Weiterentwicklung des Strommarktdesigns ergebnisoffen diskutieren und fundierte Vorschläge erarbeiten. Dabei sollen in einem partizipativen Prozess die verschiedenen Sichtweisen der Akteure im Strommarkt genutzt und zusammengeführt werden. Eine Gruppe soll sich auf effiziente Investitionsanreize für erneuerbare Energien fokussieren, eine zweite auf steuerbare Kapazitäten, um die Versorgungssicherheit jederzeit zu gewährleisten. Weitere Arbeitsgruppen behandeln die Flexibilisierung der Stromnachfrage sowie die Nutzbarmachung netzdienlicher Marktsignale. In einem Plenum werden die Vorschläge zusammengeführt.“ Die Franzosen können darin nur eine Verzögerungstaktik erkennen.

Vor diesem Hintergrund ist es nur allzu verständlich, dass Paris sich nun gegen das Projekt der Wasserstoff-Pipeline H2Med zwischen Spanien, Frankreich und Deutschland sperrt. Paris gab die Zusage zu diesem Projekt ohnehin nur unter der Bedingung, dass Berlin, im Einklang mit dem EU-Parlament und der EU-Kommission, nuklear erzeugten Wasserstoff (H2) zumindest als „kohlenstoffarm“ anerkennt. Die Ampel-Regierung in Berlin will aber nur mithilfe von Wind und Sonne erzeugten Wasserstoff als „grün“ anerkennen. Habeck und seine Mitarbeiter spüren offenbar, das ganze Lügengebäude um die „Erneuerbaren“ könne rasch in sich zusammenfallen, wenn sie auch nur in einem Punkt Zugeständnisse an den gesunden Menschenverstand machen. Der grüne Wasserstoff gemäß deutscher Definition müsste aber in Nordafrika erzeugt werden, um auch nur halbwegs bezahlbar zu sein. Paris setzt dagegen auf nuklear erzeugten Wasserstoff, der deutlich preiswerter wäre. Inzwischen gilt der energiepolitische Streit zwischen Berlin und Paris als so virulent, dass kompetente Beobachter nicht ausschließen, dass dieser (und nicht der Euro, die Migrationskrise oder der Ukraine-Konflikt) zur Sprengung der EU führen könnte. Manch einer fragt schon, ob es die EU im Jahre 2024 noch geben wird.