DIESELCHAOS – Luftmessstellen auf den Prüfstand

Bald keine größere Stadt mehr ohne Fahrverbote? Ab 2019 sollen auch in Aachen Fahrverbote für Dieselfahrzeuge gelten. Es seien angeblich zu viele Stickstoffoxide in der Luft, dafür seien Dieselmotoren verantwortlich – also weg damit, beschloss das Aachener Verwaltungsgericht. Geklagt hatte wieder der Abmahnverein deutsche Umwelthilfe (DUH). Die Stadt hat Widerspruch eingelegt.

Ein Jahresmittelwert von 46 µg/m3 Luft wurde für Aachen errechnet. Das sind ganze 6 µg/m3 mehr als der von der EU-vorgesehene Grenzwert von 40 µg/m3. Praktisch ein Nichts, allein die Messgenauigkeit liegt in der Regel bei 2 µg/m3. Die stark schwankende natürliche Hintergrundkonzentration übrigens bei etwa 10 µg/m3. Das zeigt, in welch niedrigen Bereichen sich die Auseinandersetzung bewegt.

Damit setzt sich das Fahrzeug-Chaos fort. In Aachen gibt es auch Zweifel an der Rechtmäßigkeit der Messungen. Eine Messstation soll nicht den Mindestabstand von 25 Meter zur nächsten Kreuzung einhalten und damit falsch stehen. Das ergab eine Überprüfung des Deutschen Wetterdienstes. Damit dürften diese Messwerte nicht als Begründung für Fahrverbote herhalten.

Aus Köln hören wir, dass die sieben Messpunkte, an denen die höchsten Grenzwertüberschreitungen bei Stickstoffdioxid in NRW festgestellt werden, rechtskonform aufgestellt wurden. So fasst jedenfalls der »Kölner Stadt-Anzeiger« eine Untersuchung zusammen, die der TÜV Rheinland und der Deutsche Wetterdienst für das Landesamt für Natur, Umwelt und Verbraucherschutz erstellt hatten. In dem Gutachten heißt es, es hätten sich »keine Abweichungen von den gesetzlichen Vorgaben«ergeben.

In Hamburg, der ersten Stadt mit Fahrverboten, quälen sich die Fahrzeuge jetzt über längere Umleitungsstrecken und belasten dort die Luft. Dabei zeigen die Messwerte zum Beispiel in der vom Fahrverbot betroffenen Max-Brauer-Allee seit Jahren eine deutliche Kurve nach unten. Sie liegen im Bereich von wenigen Mikrogramm über den Grenzwerten, teilweise am Rande der Messgenauigkeit der Geräte. Wobei die Messungen in Hamburg merkwürdig anmuten. Weht in der Stadt am Wasser doch fast immer ein beständiger Wind, der die Abgase eigentlich gründlich verwehen sollte.

Der Beitrag erschien zuerst bei TICHYS Einblick 

Man sehe auch hier : Oldenburger Messstation zeigt Überschreitung der Stickoxid-Grenzwerte bei gesperrter Straße!

 




Panne beim Weltklimarat: Neuer IPCC-Spezialbericht zum 1,5°C-Ziel blendet natürlichen Klimawandel komplett aus

A1. Human activities are estimated to have caused approximately 1.0°C of global warming above pre-industrial levels, with a likely range of 0.8°C to 1.2°C. Global warming is likely to reach 1.5°C between 2030 and 2052 if it continues to increase at the current rate. (high confidence)

Die Begründung ist wieder einmal “confidence“, d.h. Glauben oder Vertrauen, aber keine Fakten, die normalerweise eine Hypothese bestätigen müssen. Andererseits bleibt die Hypothese ein Hirngespinst. Bisher war der, die oder das IPCC (je nach Übersetzung als Ausschuss, die Arbeitsgruppe  oder das Komitee, aber auf keinen Fall die hochstaplerische Bezeichnung „Klimarat“) nicht in der Lage, einen konkreten Beweis für die alleinige Verantwortung des CO2 für die beobachtete Erwärmung der letzten 150 Jahre zu liefern. Der fundamentale und immer noch nicht korrigierte Fehler der IPCC-Berichte ist die komplette Ignoranz der natürlichen Klima-Entwicklung, die es tatsächlich auch schon vor Existenz der Menschheit, ja seit Bestehen der Erde gibt. Dabei hatte die übergeordnete UN-Organisation UN-FCCC (The United Nations Framework Convention on Climate Change) schon 1992 offiziell festgestellt, dass Klimawandel aus zwei verschiedenen Elementen besteht:

(1) change of climate which is attributed directly or indirectly to human activity that alters the composition of the global atmosphere, which is addition to

(2) natural climate variability observed over comparable time periods.

Der entscheidende 2. Teil, der beschreibt, wie die globale Temperaturentwicklung ohne anthropogene Einflüsse verlaufen wäre, fehlt beim IPCC komplett. Dabei gibt es für die letzten 10.000 Jahre (seit dem Ende der letzten Eiszeit, bzw. für das Holozän als aktuelle Zwischeneiszeit) relativ gute und zahlreiche Klima-Daten. Dabei geht es nicht um die “natural variability“ (wie ENSO-Ereignisse oder Vulkanausbrüche), sondern um die nachgewiesenen regelmäßigen natürlichen Klimazyklen von 1000, 230 und 65 Jahren. Es gibt natürlich gute Gründe für den IPCC, dies besser nicht darzustellen. Fakt ist: Noch immer bewegt sich das Klima innerhalb der bekannten natürlichen Schwankungsbreite. Es ist kein Unterschied zu erkennen zwischen der heutigen Klimaentwicklung der letzten 150 Jahre und den 10.000 Jahren davor.

Vermutlich ist der CO2-Effekt sehr viel geringer als angenommen. Mutige Äußerungen in diese Richtung sind jedoch nur von Wissenschaftlern möglich, die keine berufliche Funktion mehr erfüllen. Ansonsten müssten sie mit harschen und persönlichen Angriffen ihrer Kollegen rechnen, die dem Klima-Dogma ihrer Regierungen und damit den IPCC-Behauptungen folgen müssen. Und auch Journalisten schreiben lieber vom „offiziellen“ IPCC-Bericht ab, als der Empfehlung von Immanuel Kant zu folgen („Habe den Mut, dich deines eigenen Verstandes zu bedienen!“)

Wer willens und imstande ist, sich mit der historischen Klima-Entwicklung unseres Planeten zu befassen, macht eine überraschende Entdeckung: sie ist beherrscht von einer Reihe langfristiger, mittelfristiger und kurzfristiger Klimazyklen. Für die letzten 8000 Jahre sind dies insbesondere die Zyklen mit einer Frequenz von 1000 bis 1070 Jahren (Eddy-Zyklus), 230 Jahren (Suess/deFries-Zyklus) und der sogenannte Ozean-Zyklus mit 60-65 Jahren. Diese Zyklen haben solare und astrophysikalische Ursachen, die kein Mensch beeinflussen kann.

Die Erforschung der Klima-Historie (Klima-Paläontologie) ist bei den Klima-Instituten stark unterentwickelt, aus verschiedenen Gründen. Einer ist sicher, dass der hochgespielte „anthropogene Klimawandel“ attraktiver und finanziell einträglicher ist. Mit alarmistischen Klima-Warnungen ist man in den Medien hochwillkommen. Dagegen ist die Klima-Historie natürlich langweilig. Wen interessiert es schon, dass es vor 1000 Jahren wärmer war als heute, dies aber bei einem CO2-Anteil von nur 230 ppm (heute 400 ppm). Auch nicht gerade ein Argument für einen CO2-Einfluss.

Aber nochmals konkret zur IPCC-Behauptung „der Anstieg von 1°C in den letzten 100 Jahren sei komplett durch anthropogene Treibhausgase (CO2) verursacht“. Man könnte hierzu die Anti-These aufstellen, dass dieser Anstieg komplett auf den natürlichen Klimazyklen beruhe, die schon seit 8000 Jahren zu beobachten sind:

–Der Ozean-Zyklus war die nachgewiesene Ursache des globalen Temperaturrückganges um 0,4°C zwischen 1940 und 1975. Anschließend ist die Temperatur zwischen 1975 und 2007/2010 wieder um 0,3 bis 0,4° gestiegen und hat jetzt wieder seinen neuen Abwärtstrend begonnen. Erste Anzeichen sind zu erkennen (2018 keine NW-Passage mehr möglich, zuviel Eis; neuer Minustemperatur-Rekord in der Antarktis mit -89,6°C).

–Der 230-Jahreszyklus hatte sein Minimum zwischen 1880 und 1900  und erreichte sein neues Maximum zwischen  2000 und 2015 mit einem Temperatur-Anstieg von ca.0,4°C.

–Der 1000-Jahre-Zyklus hatte sein letztes Minimum zwischen den Jahren 1500-1700, auch „Little Ice Age“ genannt und erreichte sein aktuelles Maximum zwischen den Jahren 2000 und 2020. Rechnet man den Anteil des Anstieges in den letzten 100 Jahren, ergeben sich ca. 0,3°C. In den nächsten 400 Jahren wird wieder ein Abfall um ca.2°C erfolgen.

Zusammengenommen, könnte der Temperaturanstieg von ca. 1° in den letzten 100 Jahren durch den gleichzeitigen Anstieg der drei natürlichen Zyklen mit einem kombinierten Effekt von 1 bis 1,1°C weitgehend erklärt werden. Der Einfluss des CO2-Antieges geht ensprechend zurück. Es ist sehr seltsam und nicht verständlich, wie es möglich ist, dass der IPCC diese simplen Fakten schlicht ignoriert, um seine ideologische Hypothese mit allen Mitteln und Tricks zu verteidigen.

Der Beitrag erschien zuerst bei Die kalte Sonne hier




Micro-Reactor, die Renaissance made in USA?

Langsam zeichnet sich ab, welchen Weg die Trump-Administration für die Kernenergie vor hat. Nachdem die Fesseln des Obama-Zeitalters für die fossilen Energien erfolgreich durchschnitten wurden, wird der Umbau der Energieerzeugung nun auch konsequent auf die Kernenergie ausgedehnt. Die Reihenfolge war folgerichtig: Die meisten Arbeitsplätze und das schnellste Wirtschaftswachstum konnte kurzfristig nur über die Öl- und Gasindustrie geschaffen werden. Hier traf alles zusammen: Hohe Nachfrage zu akzeptablen Preisen auf dem Weltmarkt mit vorhandenem Wissen und Kapital im eigenen Land. Nebenbei wurde noch die Kohleindustrie stabilisiert und die überbordende Förderung für „alternative Energien“ zurechtgestutzt. Ein einziger Albtraum für jeden gläubigen „Klimaschützer“. Nachdem der Präsident nun das sichere Fundament für seine Wiederwahl gelegt hat, kehrt etwas Ruhe ein und man kann sich langfristigen Projekten wie der Kernenergie widmen.

Die Lage der Kerntechnik in den USA

Der Schock kam mit dem Desaster der Neubauprojekte Vogtle und Summers. Die USA sind nicht mehr in der Lage, einen in den USA entwickelten Reaktortyp fristgerecht und zu den vereinbarten Preisen fertigzustellen. Zu aller Schande wurden die gleichen Reaktoren in Lizenz in China errichtet und sind inzwischen am Netz. Es gibt in den USA — wie in Deutschland und Frankreich — keine leistungsfähige Industrie mehr, die solch komplexe Projekte unter den speziellen Randbedingungen der Kerntechnik durchziehen kann. Der Faden ist durch die jahrzehntelange Zwangspause beim Neubau einfach abgerissen. Man lernt in Vogtle und Olkiluoto genauso wieder von vorn, wie in den fünfziger und sechziger Jahren. Da sich auch in den USA keine weiteren Kernkraftwerke als Anschlussaufträge abzeichnen, droht eine Abwärtsspirale.

Wie immer, wenn man in einer Sackgasse steckt, muß man die Situation analysieren und neu denken. Es ist etwas von dem „Apple-Geist“ nötig, der mitten in der Krise der Computerindustrie das Smartphone erfunden hat. Heutige Kernkraftwerke erfordern riesigen Kapitaleinsatz, lange Bauzeiten (vom ersten Genehmigungsantrag bis zur Fertigstellung), große Stäbe von erfahrenen Fachkräften. Solche Randbedingungen sind heute nur noch in Staatswirtschaften zu realisieren. Will man verhindern, daß China und Rußland das weltweite Monopol für Kernkraftwerke erhalten, muß man deshalb genau hier ansetzen. Der eingeschlagene Weg läuft über eine Serienproduktion anstelle einer Kosteneinsparung über einen „Größenvorteil“. Ein revolutionärer Ansatz, wie einst der Umstieg vom „Handy“ auf das Smartphone. Ganz wichtig ist hierbei die Schaffung eines Zusatznutzens, der für sich allein einen Kaufanreiz darstellt — zumindest für eine vorhandene kaufkräftige Konsumentengruppe als Starter.

Tot geschriebene, leben länger

Die kerntechnische Industrie in den USA ist noch lange nicht tot. Jedenfalls so lange, wie sie über einschlägige Forschungszentren mit zehntausenden (der besten) Fachleute weltweit verfügt und eine — etwas im Verborgenen blühende — Reaktorindustrie vorhanden ist. Wenig beachtet, existiert das „Büro für Schiffsreaktoren“, welches 82 Kriegsschiffe mit Kernreaktoren unterhält, über sechs Werften, vier Übungsreaktoren an denen jährlich 3500 Studenten ausgebildet werden, zwei eigenen Forschungszentren (Bettis/Knolls), hunderten von klassifizierten Zulieferern und einem eigenen, kompletten Brennstoffkreislauf, verfügt. Dort weht immer noch der Geist von Admiral Rickover. Völlig geräuschlos — und vor allem ohne spektakuläre Unfälle — wird dort Reaktortechnik auf höchstem und sonst weltweit unerreichtem Niveau betrieben. Allein diese Organisation kann (wieder) als Keimzelle einer neuen Industrie dienen. Außerdem hat sich offensichtlich der öffentliche Wind gedreht: Es gibt mehr als 70 neugegründete Unternehmen, die sich mit den unterschiedlichsten Reaktortypen beschäftigen. Universitäten brauchen sich keine Sorgen mehr über den Nachwuchs zu machen.

In diesem Umfeld fehlt es nur noch an politischem Willen. Dieser scheint nun endlich in der Gestalt von Präsident Trump gekommen zu sein. Er hat das Zeug zu einem Kennedy der Kerntechnik zu werden. So, wie einst die Mondlandung zu einer Explosion der Raumfahrt geführt hat, könnte heute der „Micro-Reactor“ eine Initialzündung für einen neuen Industriezweig auslösen.

Was macht dieses Konzept so anders?

Grundgedanke ist die Serienfertigung. Die heutigen (unvorhersehbaren) Bauzeiten für Kernkraftwerke in westlichen Ländern sind für jeden Investor völlig indiskutabel. Zwar bekommt man nicht einmal ein Gaskraftwerk beim Kaufmann um die Ecke, aber zumindest Termingerecht in einem überschaubaren Zeitraum. Die unvorhersehbaren Zeiträume sind die Hauptursache für die hohen Kosten. Dies zeigen die Preise für baugleiche Kraftwerke in China überdeutlich — z. B. gegenüber den ewigen Baustellen in USA (Vogtel), Frankreich (Flamanville) und Finnland (Olkiluoto).

Die notwendige Erstinvestition für eine kleine Leistung ist entsprechend gering gegenüber einem großen konventionellen Kernkraftwerk. Das wirtschaftliche Risiko ist dadurch leichter handhabbar. In wie weit die Serienfertigung hierbei mit einer Kostendegression durch Größe mithalten kann, wird die Zukunft zeigen. Viel wichtiger ist jedoch, daß sich durch die geringen Leistungen völlig neue Märkte für die Kerntechnik erschließen. Auch die Großraumflugzeuge haben in der Luftfahrt nicht die Neuentwicklung kleiner Jets verhindert. Im Gegenteil, haben die kleinen Flugzeuge völlig neue Märkte erschlossen und damit die Luftfahrt insgesamt belebt.

Die Brennstoffkosten sind bei Kernkraftwerken vernachlässigbar — ausdrücklich auch unter Einschluß der notwendigen Entsorgungskosten! Man sollte deshalb nicht den Wirkungsgrad, sondern die Investitionskosten und die Robustheit in den Vordergrund stellen. Lange Betriebszeiten (geplant mindestens 10 Jahre) zwischen den Brennstoffwechseln ergeben schnell geringere Stromkosten zu festen Preisen (Leistung in kW x Betriebsstunden = produzierte Kilowattstunden) gegenüber Windmühlen und Sonnenkollektoren. Aber das absolute Killerargument gegenüber allen wetterabhängigen Verfahren ist: Immer wenn der Schalter umgelegt wird, ist die benötigte elektrische Leistung vorhanden. Ganz ohne Speicher und sonstigen teuren Ballast und auch noch ohne Luftbelastung.

Der ungesehene Markt

Alle Kleinreaktoren leiden unter dem „Henne-Ei-Problem“: Größere Stückzahlen sollen über eine Serienfertigung die Preise drastisch senken. Es fehlt aber der Kunde, der für einen ersten Reaktor bereit ist, das volle Risiko und den notwendigerweise erhöhten Preis zu tragen. Ein Problem, das der Flugzeugindustrie wohl bekannt ist. Es gibt jedoch einen Kunden, der mit diesem Phänomen gewohnt ist umzugehen und überdies noch durch den Steuerzahler gedeckt ist: Das Militär.

Für das US-Militär ist die Versorgung mit Energie stets ein strategisches Problem gewesen. Jeder Versorger muß im Ernstfall durch Kampftruppen (z. B. Begleitung von Konvois) geschützt werden — bindet also Kampfkraft. Außerdem schreitet mit stark zunehmender Geschwindigkeit die Elektrifizierung des Militärs voran (Kommunikation, Radargeräte usw., bis hin zu Waffensystemen selbst). Gleichzeitig werden die vorhandenen Stromnetze auch in USA durch den vermehrten Einsatz von „Erneuerbaren“ immer störungsanfälliger und die Stromkosten steigen immer weiter. Der Scheidepunkt zwischen immer mehr zusätzlicher Notstromversorgung zur Absicherung und Eigenversorgung rückt immer näher. Das US-Verteidigungsministerium ist für über 500 Liegenschaften mit mehr als einem Megawatt Anschlussleistung allein auf dem eigenen Staatsgebiet Auftraggeber und somit einer der größten Stromkunden überhaupt (ca. 21% des gesamten öffentlichen Verbrauchs). 90% dieser Objekte kann mit 4 x 10 MWel voll versorgt werden. Hinzu kommen noch langfristig Heizwärme und Trinkwasser (Meerwasserentsalzung). Im ersten Schritt wird aber eine reine Stromversorgung angestrebt. Da die Spitzenlast nur im Ernstfall benötigt wird, kann sich Zukünftig eine Umkehrung anbieten: Das militärische Kraftwerk speist Überschußstrom ins Netz und senkt damit die eigenen Kosten. Somit ergeben sich folgende Anforderungen:

  • Kleine Abmessungen und geringes Gewicht, damit die „Kleinkraftwerke“ später auch im Feld folgen können.
  • Um möglichst viele Anwendungsfälle zu erschließen, nur eine kleine Leistung — bis 10 MWel derzeit angestrebt.
  • Inhärente („walk away“) Sicherheit.
  • Möglicher Betrieb über den vollen Lastbereich mit hoher Änderungsgeschwindigkeit um Inselbetrieb zu gewährleisten.
  • Langzeit-Dauerbetrieb mit Brennstoff Wechselintervallen von mindestens 10 Jahren („Batterie“). Dies macht eine höhere Anreicherung von nahezu 20% (HALEU) nötig.
  • Weitestgehend vollautomatischer Betrieb durch Soldaten — nach kurzer Schulung und Einarbeitung.
  • Möglichst eine zivile Zulassung durch die NRC um die potentiellen Stückzahlen zu erhöhen und eine Einspeisung ins öffentliche Netz zu ermöglichen.

Das Genehmigungsverfahren

Heutzutage eine Genehmigung für einen neuen Reaktortyp zu erlangen, gleicht einem einzigen Hindernislauf mit ungewissem Ausgang. Von einer Behörde, die ein Monopol hat und überwiegend im Stundenlohn (rund 280$/h) arbeitet, kann man keine Sprünge erwarten. Sie wird sich noch grundlegend umorganisieren müssen um sich den neuen — teilweise noch in Arbeit befindlichen — Randbedingungen anzupassen: Bei Reaktoren so kleiner Leistung ist die Menge radioaktiver Stoffe (Spaltprodukte) so klein, daß auch im ungünstigsten Fall eine Gefährdung von Personen außerhalb des Betriebsgeländes ausgeschlossen werden muß. Eine schlimme Kröte für alle „Atomkraftgegner“! Eine inhärente Sicherheit, d. h. keine nukleare Explosion und auch keine Notkühlung ist erforderlich. Ein vollautomatischer Betrieb, der keine Fehlbedienung erlaubt. In diesem Zusammenhang ist interessant, daß die gesetzlichen Bestimmungen über die Nuklearversicherung bald routinemäßig auslaufen und zwangsläufig überarbeitet werden müssen. Es bietet sich an, für solche Reaktoren die Haftpflicht nur noch rein kommerziell auszugestalten. Eine (spezielle) Industrieversicherung mit kalkulierbar geringeren Kosten. Auch das wird für „Atomkraftgegner“ nur schwer verdaulich sein, da es doch zu deren Grundüberzeugungen zählt, daß Kernkraftwerke gar nicht zu versichern seien!

Wer an dieser Stelle glaubt, das seien alles nur Wunschträume, der täuscht sich gewaltig. Die NRC steht unter Druck. Sie hat schon lange den Bogen überspannt. Ganz entscheidend ist aber, daß sich mit der Wahl von Präsident Trump der Wind von gegen, in pro Kernenergie gedreht hat. Der Präsident ist nämlich in dieser Frage sehr mächtig: Nach dem Atomic Energy Act of 1954 kann er das Verteidigungsministerium (DoD) anweisen, einen solchen Reaktor für militärische Zwecke zu bauen und zu betreiben (siehe 42 U.S.C. §2121(b)). Es bedarf dazu ausdrücklich keiner Genehmigung durch die NRC (siehe 42 U.S.C. §2140(b)).

Allerdings ist der Eigenbau gar nicht gewollt. Es geht um die Wiederbelebung der kerntechnischen Industrie. Dafür ist aber eine Genehmigung und Überwachung durch die NRC nötig. Im Gespräch sind private Investoren und Betreiber. Das Militär würde nur für 40 Jahre den Strom zu einem festgelegten Preis kaufen. Das Kraftwerk könnte in unmittelbarer Nähe des Stützpunktes errichtet werden und von dieser wirtschaftlichen Basis aus, sein Geschäft erweitern. Ein Vorbild ist auch die NASA, die eng mit privaten Raketenherstellern zusammenarbeitet und von diesen Nutzlast kauft.

Der Zeitplan

Aktuell geht man von einer Realisierung innerhalb von 5 bis 10 Jahren für den „Neuen Reaktor“ einschließlich Brennstoffkreislauf, Genehmigungen und Bau aus. Für einen Kerntechniker hört sich das wie Science Fiction oder einer Geschichte aus vergangenen Zeiten (erstes Atom-U-Boot Nautilus etc.) an. Vielleicht knüpft Präsident Trump aber bewußt an diese Traditionen an. Ein solches Projekt ist weniger eine Frage der Ingenieurleistungen sondern viel mehr des politischen Willens. Gelingt es ihm, hat er wahrlich „America Great Again“ gemacht. Wenn Amerika wirklich wollte, hat es immer das Unmögliche geschafft: Manhattan Project, Nautilus, Apollo usw.

Nun ist es auch nicht so, als wenn man bei Stunde Null mit diesem Projekt anfängt. Technisch gibt es kaum Unwägbarkeiten. Politisch sind auch bereits die entscheidenden Gesetze durchgebracht. Es ist halt der unvergleichliche Donald Trump Regierungsstil: Immer viel Kasperletheater als Futter für die Medien und sonstige schlichte Gemüter, bei gleichzeitig harter Sacharbeit im Hintergrund.

Der Beitrag erschien zuerst auf der Website des Autors hier




Dirk Maxeiner: Mein alternativer Klimabericht

Der Weltuntergang ist mein ständiger Begleiter, seit ich mich mit dem Thema Klima beschäftige. Eigentlich war ich der Meinung, die Apokalypse sei qua Definition ein einmaliges Ereignis. Die Welt kann doch nicht zweimal untergehen. Aber wir schreiben das Jahr 2018. Da geht sowas.

Ich habe eine kleine Sammlung von Zeitungsbeiträgen der letzten 30 Jahre und weiß gar nicht, wie viele „letzte Chancen“, „Fristen“ und „Kipppunkte“ ich inzwischen munter überlebt habe. Mein Favorit ist „Bild“ vom 3. Februar 2007 mit der Überschrift „Unser Planet stirbt!“ und der Zusatzzeile: „Jetzt amtlich“.

Die Apokalypse hatte in der Menschheitsgeschichte schon immer eine Menge Fans, besonders bei religiösen Heuchlern. In der jüngeren Menschheitsgeschichte fand sich stets irgendeine aufrechte Sekte, die der Meinung war, dass unser Mietvertrag auf dem Planeten leider ausgelaufen sei. Manche gingen in die Wüste, um das Ende zu erwarten, andere meuchelten sich vorsichthalber selbst, damit sie es hinter sich hatten. Wenn ich es richtig sehe, hat sich die letztere Version inzwischen durchgesetzt, zumindest in Deutschland. Aus Angst, das jüngste Klimagericht könnte über uns kommen, gibt sich die Industrienation vorsorglich lieber selbst die Kugel.

Mit diesem Phänomen beschäftigt sich die Eschatologie, „die Lehre von den letzten Dingen“, und damit verbunden „die Lehre vom Anbruch einer neuen Welt“. In der weltlichen Version findet sich sowas als „Grünes Parteiprogramm“ oder „Sofort-Programm Energiewende“, um nur zwei Beispiele zu nennen.

Von Pfarrerstöchtern als politisches Programm kultiviert

Der Begriff Eschatologie wurde ursprünglich im lutherischen Protestantismus geprägt und dann von deutschen Pfarrerstöchtern als politisches Programm kultiviert. Der Bürger wird in Sünde gehalten, aber es werden ihm Hoffnungen auf eine jenseitige Heilsvollendung gemacht. Ein ebenso aktuelles wie bizarres Zeugnis dieser frommen Denkungsart ist ein Gespräch zwischen Richard David Precht und Hans Joachim Schellnhuber vom Potsdam-Institut, das sich der Frage widmet „Ist die Erde noch zu retten?“

So etwas hat seit dem Mittelalter Tradition und ist politisch äußerst hilfreich. Die gleichen Verantwortungsträger, die sich heute außer stande sehen, die Landesgrenzen zu bewachen, trauen sich die Regelung der Welttemperatur in 100 Jahren zu, da müssen sie nämlich nicht mehr gewählt werden.

Schon 1986 stand dem Kölner Dom auf einem Spiegel-Titel das Wasser bis zum Hals.  Die Nordsee lässt sich jedoch vergeblich bitten. Brav bleibt sie hinter’m Deich. Das hinderte ein Gastwirts-Ehepaar auf Langeoog nicht daran, gegen das EU-Parlament zu klagen, weil es in seinen Grundrechten verletzt würde. Die Presse zitiert das Langeooger Ehepaar so: „Was bei uns auf der Insel und in Norddeutschland passiert, ist ein globales Problem. Wir nehmen den Klimawandel besonders wahr, weil wir in und mit der Natur leben.“

Die beiden Wirtsleute müssen über eine geradezu übersinnliche Sensorik verfügen: In der Deutschen Bucht stieg der Meeresspiegel in den letzten hundert Jahren um 1,7 bis 2,5 Millimeter pro Jahr, insgesamt über diesen langen Zeitraum also 17 bis 25 Zentimeter. Deshalb werden die Deiche sicherheitshalber und routinemäßig ein bisschen höher gemacht, so wie sie vor meinem Haus ab und zu den Bürgersteig erneuern.

Wie ein Rudel amerikanischer Feuerwehrautos

Nun ist dieser Tage der „IPCC-Sonderbericht über 1,5°C globale Erwärmung“ erschienen, von dessen Zusammenfassung es hier eine erste deutsche Übersetzung gibt. Der Bericht saust gerade wie ein Rudel amerikanischer Feuerwehrautos durch die Medien. Das ist erstaunlich, denn es gibt zwar einen neuen Bericht, aber keine wesentlichen neuen wissenschaftlichen Erkenntnisse, beispielsweise über die sogenannte „Klimasensitivität“. Sie ist DIE Schlüsselgröße der gegenwärtigen Treibhaus-Hypothese – nur ist deren tatsächliche Größenordnung nach wie vor unklar. Allein diese Tatsache beinhaltet schon einen Irrtumsvorbehalt für sämtliche Prognosen künftiger Temperatur- und Klimaentwicklungen.

Die Klimasensitivität gibt an, um wie viel sich die Luft erwärmt, wenn man ihren Kohlendioxidgehalt verdoppelt. Der Wert ergibt sich nun aber nicht aus der Treibhauswirkung des Kohlendioxids alleine – die ist nämlich relativ gering. Vielmehr vermutet man eine „positive Rückkoppelung“ mit dem Wasserdampf, der mit mindestens zwei Dritteln Anteil das weitaus wichtigste Treibhausgas ist. Die Reaktionskette muss man sich in etwa so vorstellen: Mehr Kohlendioxid führt zu höheren Temperaturen, die wiederum mehr Wasser verdunsten lassen, was die Luft noch weiter erwärmt. Doch um wie viel? In einem komplexen System kann es schließlich auch negative Rückkoppelungen geben.

Seit über 30 Jahren liegen die Schätzungen der Klimasensitivität im Bereich zwischen 1,5 und 4,5 Grad Temperaturerhöhung. Dazu nichts Neues unter der Sonne, auch 2018 nicht. Der „Erfinder“ der Treibhausthese, Svante Arrhenius, schätzte sie Anfang des 20. Jahrhunderts auf 5 bis 6 Grad Celsius, lag also gar nicht so weit vom heutigen oberen Schätzwert ab. Tatsächlich liegt sie wohl eher am unteren Ende, dafür spricht die reale Temperaturentwicklung. So heißt es in dem neuen Bericht: „Menschliche Aktivitäten haben Schätzungen zufolge etwa 1,0°C globale Erwärmung über vorindustrielle Werte verursacht mit einer wahrscheinlichen Bandbreite von 0,8 bis 1,2 Grad“. Das ist nicht besonders aufregend, sondern eher beruhigend. Und damit das keiner merkt, wird halt die Drehzahl der Alarmsirene erhöht.

Wichtig ist dabei, das Wort „Schätzung“ zu ignorieren. IPCC-Berichte sind, genau genommen, Schätzungen von Schätzungen von Schätzungen. Das IPCC trägt hunderte von Einzelstudien zur Klimaentwicklung zusammen und destilliert daraus gewissermaßen einen demokratisch-politisch ermittelten Durchschnitt, mithin eine grobe Abschätzung des Forschungsstandes. Die Grundlagen der einzelnen Studien basieren aber ebenfalls auf Schätzungen, etwa der Klimasensitivität (siehe oben). Und diese Schätzungen und Annahmen werden in Computermodelle des Klimas oder der Atmosphäre eingegeben, die ebenfalls aufgrund grober Schätzungen und Annahmen programmiert werden. Selbst Messwerte der Welttemperatur sind keine harten Messungen, sondern geglättete und mit Abschätzungen ermittelte Durchschnittswerte, die obendrein ständig korrigiert oder angepasst werden.

Ein undurchsichtiges Klimaderivat

Am Ende weiß gar niemand mehr so richtig, was in solchen politisch zu einem „Konsens“ verschnürten Papieren an Substanz enthalten ist. Das kann man, wenn man ein bisschen bösartig ist, mit den Finanzderivaten vergleichen, in denen alle möglichen faulen Papiere neu verschnürt werden, bis niemand mehr weiß, welche Risiken er im Tresor liegen hat. („Derivate sind abgeleitete Finanzprodukte, die auf Basis von bestehenden Wertpapieren oder Krediten zusätzliche Handels- und Spekulationsmöglichkeiten schaffen“).

Schon die verschwurbelte Sprache des IPCC-Berichts deutet darauf hin, dass es sich um ein ausgesprochenes Klima-Derivat handeln könnte. Wissenschaftliche Hohlheit soll ganz offensichtlich mit Wortgeklingel übertüncht werden. Auf Seite 2 steht unter „A. Globale Erwärmung um 1,5°C verstehen“, Passus A.2:

„Die Erwärmung durch anthropogene Emissionen seit vorindustrieller Zeit bis heute wird für Jahrhunderte bis Jahrtausende weiter bestehen bleiben und wird weiterhin zusätzliche langfristige Änderungen im Klimasystem bewirken, wie zum Beispiel einen Meeresspiegelanstieg und damit verbundene Folgen (hohes Vertrauen), aber es ist unwahrscheinlich, dass diese Emissionen allein eine globale Erwärmung von 1,5 Grad verursachen (mittleres Vertrauen).“

Das einzige, was ich an diesem Passus verstehe, ist, dass ich nichts verstehe. Was wollen die bloß sagen? Und was heißt „unwahrscheinlich“? Was bedeutet „hohes Vertrauen“? Bedeutet es: Ist so, Ausnahmen bestätigen aber die Regel? Und was bedeutet „mittleres Vertrauen“? Kann sein, kann nicht sein? Nein das wäre viel zu einfach. Hier die Antwort des IPCC:

„Ein Vertrauensniveau wird unter der Verwendung von fünf Abstufungen angegeben: sehr gering, gering, mittel, hoch und sehr hoch“. Folgende Begriffe wurden verwendet, um die bewertete Wahrscheinlichkeit eines Ergebnisses anzugeben: praktisch sicher 99 – 100 % Wahrscheinlichkeit, sehr wahrscheinlich 90 – 100 %, wahrscheinlich 66 –100 % etwa ebenso wahrscheinlich wie nicht 33 – 66%, unwahrscheinlich 0 –33 %, sehr unwahrscheinlich 0 – 10 %, besonders unwahrscheinlich 0 – 1 %. Zusätzliche Begriffe (äußerst wahrscheinlich 95 – 100 %, eher wahrscheinlich als nicht > 50 – 100 %, eher unwahrscheinlich als wahrscheinlich 0 –  50%, äußerst unwahrscheinlich 0 –  5%) können ebenfalls verwendet werden wo angebracht.“

Ich habe angesichts solcher sprachlichen Konstrukte mit hohem Vertrauen das Gefühl, dass ich hier wahrscheinlich (0 – 50 Prozent) hinter die Fichte geführt werden soll. Aber was die können, das kann ich schon lange. Und deshalb hier mein alternativer Klimabericht für das Jahr 2100 (da lebe ich nicht mehr, hohes Vertrauen).

  • Der deutsche CO2-Ausstoß ist auf Null gesunken (mittleres Vertauen)
  • Industrie und verarbeitendes Gewerbe wurden erfolgreich abgewickelt (hohes Vertrauen)
  • Die verbliebenen deutschen Autofahrer sind auf Elektroautos umgestiegen. Strom gibt es zwischen 0.00 Uhr nachts und 4 Uhr in der Früh, für die einen an geraden, für die anderen an ungeraden Tagen (geringes Vertrauen).
  • Mathematik und Physik werden an deutschen Schulen nicht mehr gelehrt, sie gelten als politisch unzuverlässig (hohes Vertrauen)
  • Der Kölner Dom kann nicht untergehen, da es sich wahrscheinlich längst um eine Moschee handelt und Allah den Meeresspiegel sinken lässt wie Erdogan den Lirakurs (hohes Vertrauen).
  • Die Nationalhymne lautet sehr wahrscheinlich „Mit Morgenthau zu Berge“.

Der Beitrag erschien zuerst hier




Petition: GEGEN DAS DIKTAT DER ÖKOLOGIE – FÜR FAIRE MEDIEN UND DIE RODUNG DES HAMBACHER FORSTES!

PRO LAUSITZER BRAUNKOHLE E.V. & INITIATIVEN VON PRO LAUSITZER BRAUNKOHLE E.V.

hier geht es zur Petition