Der hohe Weizenpreis verheißt nichts Gutes

Green Deal bedeutet Hungersnot

von Edgar L. Gärtner

Seit etwa zehn Wochen kennt der Weizenpreis an den Leitbörsen von Paris und Chicago nur eine Richtung. Er hat nun wohl „nachhaltig“ die wichtige Widerstandslinie von 300 Euro je Tonne durchbrochen. Der stark steigende Weizenpreis schlägt mit einer nur geringen Zeitverzögerung in vielen Ländern auf den Brotpreis durch. Das bedeutet für viele Arme schon jetzt Hunger. Doch abgelenkt vom Corona-Wahn machte aus dieser Nachricht kaum eines unserer regierungsfrommen Massenmedien eine Schlagzeile. Immerhin brachte die FAZ am 18. November 2021 hinter einer Bezahlschranke den almarmierenden Beitrag des Bad Homburger Analysten Wieland Staud. Dieser weist zu Recht darauf hin, dass Missernten und in deren Gefolge steigende Brotpreise die Große Französische Revolution auslösen halfen.

Der Einfluss von Unbilden der Witterung erklärt die Teuerung aktuell allerdings nur zum geringen Teil. So gab es in den USA, Kanada und Russland zwar gewichtige Ernteausfälle wegen Trockenheit sowie in der chinesischen Getreideanbau-Region Henan wegen einer katastrophalen Überschwemmung. Doch ausschlaggebend für den Preissprung für Getreide war die Verfünffachung des Gaspreises. Hinter dieser wiederum steht letzten Endes die lebensfeindliche Politik der Ächtung des Pflanzennährstoffs Kohlenstoffdioxid (CO2) durch die „Net Zero“-Pläne in Europa und Nordamerika. Denn etwa 70 Prozent der weltweit eingesetzten Düngemittel fußen auf der Ammoniaksynthese nach dem Haber-Bosch-Verfahren mithilfe von Luftstickstoff und Erdgas als Wasserstoffquelle. Dieses katalytische Verfahren arbeitet mit hohem Druck und hoher Temperatur, wobei unweigerlich CO2 frei wird (das man allerdings auffangen könnte). Nur durch die Verbreitung dieses schon vor dem Ersten Weltkrieg in Deutschland von der BASF entwickelten großtechnischen Syntheseverfahrens konnte nach dem Zweiten Weltkrieg der Hunger in der Welt (fast) besiegt werden. Da die Produktionskosten der Stickstoffdünger aber zu 80 Prozent vom Gaspreis bestimmt werden, wird die Rentabilitätsschwelle beim Steigen des Rohstoffpreises rasch unterschritten. Da die Ernährung von etwa der Hälfte der Weltbevölkerung von Stickstoffdünger abhängt, ist das beunruhigend.

Schon als im August 2021 der Orkan „Ida“ in den US-Südstaaten wütete, musste die weltweit größte Ammoniak-Anlage von CF-Industries in Louisiana aus Sicherheitsgründen für zehn Tage heruntergefahren werden. Doch kurze Zeit später schloss CF-Industries auch zwei große Anlagen in England. Das hatte mit dem Wetter nichts zu tun, sondern mit dem rasch steigenden Gaspreis. Anfang Oktober schloss die BASF ihre Ammoniak-Anlagen in Ludwigshafen und Antwerpen auf unbestimmte Zeit. SKW Piesteritz, der größte deutsche Ammoniak-Hersteller, fuhr seine Produktion teilweise herunter. Borealis in Österreich, OPZ in der Ukraine und Fertiliberia in Spanien schlossen ihre Anlagen ganz. Achema in Litauen und OCI in den Niederlanden sind dabei, ihre Anlagen herunterzufahren. Yara International reduziert die Produktion von Stickstoffdünger EU-weit um 40 Prozent. Die Volksrepublik China, bislang der größte Exporteur von Stickstoffdünger auf Harnstoff-Basis auf dem Weltmarkt, hat im September einen Exportstopp für Stickstoff- und Phosphatdünger bis Juni 2022 verhängt. Und das alles bei einer rasch wachsenden Nachfrage nach Stickstoffdünger nach dem Ende der „Lockdowns“. So finden die Preissprünge auf dem Kunstdüngermarkt eine einleuchtende Erklärung.

Vor zwei Jahren konnte ich hier noch auf Rekord-Getreideernten hinweisen, die offenbar mit dem gestiegenen CO2-Gehalt der Atmosphäre zusammenhingen. Inzwischen sind die Getreidevorräte weltweit auf ein Minimum geschrumpft. Verschärft wird die Lage dadurch, dass diese Entwicklung einflussreichen Entscheidern in Politik und Finanzindustrie offenbar gelegen kommt. Auf der Klima-Konferenz von Glasgow (COP 26) haben die Delegationen von hundert Staaten eine Absichtserklärung unterzeichnet, die eine Reduktion der Methan-Emissionen von 30 Prozent bis zum Jahr 2030 vorsieht. Das betrifft sowohl die Haltung von Rindern, in deren Pansen Methan entsteht, als auch Lecks in Erdgasleitungen und Produktionsanlagen. Mehr oder weniger obskure NGOs, die in Glasgow eifrig Lobby-Arbeit betrieben, kämpfen seit längerem dafür, den Menschen den Fleischkonsum abzugewöhnen. Sie finden damit in Regierungskreisen und internationalen Konzernen immer mehr offene Ohren, sofern sie nicht ohnehin Ideen verbreiten, die ursprünglich in Think Tanks ausgebrütet wurden, die von Finanzmagnaten gesponsert werden. Zu erwähnen ist hier vor allem das World Economic Forum (WEF) von Davos und dessen Programm eines „Great Reset“. Auch die von der Vollversammlung der UNO angenommene „Agenda 2030“ sieht den Übergang zu einer „nachhaltigen“ Landwirtschaft ohne oder mit nur minimalem Kunstdünger-Einsatz vor. Beide Programme fordern eine starke Verminderung des Fleischkonsums und dessen Ersatz durch Kunstfleisch aus dem Labor. Da kommt die Verteuerung von Stickstoffdünger wie gerufen.

Ohnehin ist heute infolge der Anwendung strenger Nitrat-Grenzwerte für das Grundwasser entsprechend der novellierten Düngeverordnung nach Meinung betroffener Landwirte mancherorts schon keine optimale Stickstoff-Düngung mehr möglich. In der fruchtbaren Wetterau, einer der Kornkammern Deutschlands, sei es nun schon schwierig, noch Weizen in Brotqualität zu produzieren, klagen alteingessene Bauern. Ich habe hier schon vor Jahren darauf hingewiesen, dass Stickstoffverbindungen (mit Ausnahme von Proteinen) seit dem politischen Aufstieg der Grünen bei uns generell eine schlechte Presse haben. Wohltuende Wirkungen von Stickstoffmonoxid werden dabei verdrängt. Maßgebliche Teile der Finanzindustrie, die der „Glasgow Financial Alliance for Net Zero“ beigetreten sind, wollen die Verteufelung von Stickstoff und Kohlenstoffdioxid nutzen, um ihnen anvertraute Gelder von Sparern in Billionenhöhe in Netto-Null-Projekte zu lenken bzw. dort zu versenken. Millionen von Hungertoten werden dabei wohl in Kauf genommen. (Immerhin gehört Hunger zu den natürlichen Todesursachen.)

 




Kernreaktor Generation IV aus Kanada

Das kanadische Unternehmen Terrestrial Energy Inc plant den Bau eines Small Modular Reactor (SMR) auf dem Gelände des bestehenden Kernkraftwerks Darlington.

von Klaus-Dieter Humpich

Der Reaktor

Der IMSR400 ist ein Reaktor mit einer thermischen Leistung von 400 MWth. Bei reiner Stromerzeugung kann er damit etwa 195 MWel liefern. Brennstoff und Kühlmittel sind Fluoride (Salzschmelze) mit und ohne Uran. Das „I“ bedeutet, daß sich alle wesentlichen Komponenten (Salzschmelze, Pumpen, Regelstäbe, Wärmeübertrager etc.) in einem hermetisch verschlossenen Behälter befinden. Dieser hat ungefähr eine Höhe von 7m und einen Durchmesser von 3,6m. Er kann relativ dünnwandig sein, da er nahezu drucklos ist. Die komplette Einheit soll in einer Fabrik vorgefertigt werden und verbleibt sieben Jahre im Kraftwerk in Betrieb. Dieser „Topf“ wird in einen weiteren Behälter im Kraftwerk gestellt, der die Funktion eines Containment übernimmt. Zwei dieser Behälter befinden sich in einem unterirdischen Silo. Nach sieben Betriebsjahren – wenn der Brennstoff erschöpft ist – wird der Reaktor auf den zweiten frischen Reaktor umgeschaltet. Der erste verbleibt im Silo, bis die Strahlung entsprechend abgeklungen ist. Dann wird die radioaktive Schmelze abgepumpt und der entleerte Reaktorbehälter in ein Zwischenlager auf dem Kraftwerksgelände abgestellt. Während des siebenjährigen Betriebs wird – im Gegensatz zu heutigen Leichtwasserreaktoren – der Reaktorbehälter nicht geöffnet.

Der Reaktor ist selbstregelnd. Steigt die Temperatur an, erlischt die Kernspaltung (negativer Temperaturkoeffizient) selbsttätig. Über die eingebauten Umwälzpumpen kann die Leistung – wie bei einem Siedewasserreaktor – sehr schnell verändert werden. Wird mehr Salzschmelze durch den Graphit-Moderator gepumpt, wird entsprechend mehr Uran (Anreicherung <5%) gespalten und die Leistung steigt. Soll der Reaktor dauerhaft abgeschaltet werden, fahren Regelstäbe in den Moderator ein. Vor einer unbeabsichtigten Leistungsexkursion schützen Kapseln mit löslichen Neutronenabsorbern, die beim Schmelzen in die Salzschmelze frei gesetzt werden.

Die Nachzerfallswärme wird über den Reaktorbehälter und das „Containment“ passiv an die Umgebungsluft abgeführt. Der Reaktor wäre damit „walk away“ sicher. Der Reaktor besteht wärmetechnisch aus drei Kreisläufen: Die im Brennstoff entstandene Energie wird durch Wärmeübertrager an einen sekundären Kreislauf aus gleichem Salz, aber ohne Uran und Spaltprodukte abgegeben. Dieser überträgt die Energie an einen tertiären Kreislauf aus „Solarsalz“ außerhalb des Reaktors. Diese etwas umständlich anmutende Anordnung garantiert, daß nur nicht radioaktive Salzschmelze den Reaktorbereich verläßt. Diese heiße Schmelze kann gespeichert werden, unmittelbar zur Dampferzeugung (konventionelle Anlagentechnik) verwendet oder als Fernwärme industriellen Prozessen zugeführt werden. Damit ergibt sich eine bisher nicht gekannte Flexibilität. Der Reaktor kann stets mit voller Leistung laufen (optimale Kosten) und die erzeugte Wärme den Anforderungen entsprechend aufgeteilt werden. Dies ermöglicht völlig neue Konzepte mit Wind- und Sonnenenergie. Ein ähnlicher Ansatz wurde bereits bei Solar-Turm-Kraftwerken probiert (daher der Name Solarsalz). Man kann das heiße Solarsalz (etwa 600°C) direkt einem Dampferzeuger zuführen oder in isolierten Tanks lagern. Wenn keine Sonne scheint, wird die gespeicherte Energie über einen konventionellen Dampfkreislauf zur Stromproduktion genutzt. Neben einer industriellen Nutzung (Heizwärme hoher Temperatur) zielt dieses Reaktorkonzept darauf ab, die immer größer werdenden Mengen an „Flatterstrom“ (Photovoltaik und Windmühlen) doch noch einer sinnvollen Verwendung zu führen zu können. Es ist daher kein Zufall, daß gerade die Großinvestoren (z. B. Berkshire Hathaway), die Milliarden Subventionen für „Erneuerbare“ abgegriffen haben, brennend an solchen Reaktorkonzepten interessiert sind, um ihre „gestrandeten Investitionen“ wieder flott zu machen. Sind die Subventionen abgelaufen, kann nur noch der Börsenpreis erzielt werden. Wie wir bereits in Deutschland sehen, reicht dieser aber meist nicht aus, um die Anlagen wirtschaftlich weiter zu betreiben. Die Sonne schickt zwar keine Rechnung, aber sie gibt auch kein Geld für die Betriebskosten.

Der Standort Darlington

Darlington liegt im Südosten von Kanada, nahe der Grenze mit den USA. Das Kernkraftwerk Darlington ging 1992–1993 in Betrieb und besteht aus vier Schwerwasser-Reaktoren vom Typ CANDU 850 mit je 878 MWel Nettoleistung. Eine hervorragende kerntechnische Infrastruktur ist also vorhanden. Die kanadische Regierung beschloss deshalb auf dem Gelände den ersten SMR in Kanada bauen zu lassen. Eine Genehmigung für den Standort (Umweltschutz etc.) liegt bereits vor. Es stehen drei Reaktortypen zur Auswahl: GE Hitachi’s BWRX-300 (Siedewasserreaktor), X-energy’s Xe-100 (Helium- Hochtemperaturreaktor) und der IMSR400 (Salzschmelze). Beste Aussichten haben wahrscheinlich zwei IMSR400 (Zwillingsanlage) mit zusammen 380 MWel, da sie eine rein kanadische Entwicklung sind. Kanada hofft auf bessere Exportmöglichkeiten, wenn alle Rechte kanadisch sind. Der Weltmarkt für den Ersatz alter Kohlekraftwerke in dieser Leistungsklasse ist riesig. Kanada hat traditionell Exporterfolge in Ländern, die nicht so gut mit den USA standen und gegenüber russischer Technik abgeneigt waren. Nur kauft heute kein Land mehr einen Papier-Reaktor. Es müssen Referenzkraftwerke vorgezeigt werden. Gleichwohl verzichtet die CNSC (Canadian Nuclear Safety Commission) nicht auf die jahrzehntelangen Erfahrungen in den USA und kooperiert mit der NRC (Nuclear Regulatory Commission) seit 2019 in einem gemeinsamen Zulassungsverfahren. Der IMSR (Integral Molten Salt Reactor) ist damit der erste unkonventionelle Reaktor, der gleichzeitig gemeinsam untersucht wird.

Kerntechnik heute

Kerntechnik ist heute mehr denn je ein internationales Geschäft. Je früher man zusammen arbeitet, umso leichter geht später der Verkauf und Bau in unterschiedlichen Ländern und Kulturen. Ebenso läßt sich der enorme Kapitalbedarf besser schultern. Außerdem sind Unternehmen der Kerntechnik ausnahmslos Spezialisten mit jahrzehntelanger Erfahrung und Know How. Für „Newcommer“ ist der Einstieg in diese Welt mit ihrer ausgeprägten Sicherheitskultur nur schwer möglich.

So entwickelt Terrestrial den Graphitmoderator zusammen mit Frazer-Nash, einem britisch-australischen Ingenieurunternehmen. Frazer-Nash bringt die praktischen Erfahrungen aus mehreren Jahrzehnten mit den 14 AGRs (Advanced Gas-cooled Reactors) in GB ein. Getestet wird das Reaktorgraphit seit 2020 von der niederländischen NRG (Nuclear Research and Consultancy Group) in deren Hoch-Fluss-Reaktor in Petten.

L3Harris liefert einen Simulator für den IMSR. Er dient nicht nur für die Ausbildung der zukünftigen Betriebsmannschaft (Orchid), sondern unterstützt schon die Entwickler mit der Simulations-Software MAPPS (hoch auflösende Simulation und Visualisierung aller Komponenten). L3Harris ist ein US-Unternehmen, der Simulator wird aber in Kanada entwickelt und gebaut.

Terrestrial Energy hat das kanadische Ingenieurunternehmen Hatch (9000 Mitarbeiter) mit der Planung, Ausschreibung, Bauplanung und der Kostenschätzung beauftragt. Hatch hat bereits eine Studie über den volkswirtschaftlichen Nutzen des Projekts veröffentlicht. BWXT Canada wurde mit der Planung des Dampfkreislaufs beauftragt. Der Entwicklung des Dampferzeugers (Solarsalz / Wasser) kommt dabei eine zentrale Bedeutung für das Projekt zu. Für den späteren Betrieb wurde Ontario Power als lokaler Versorger einbezogen. Selbst mit dem deutschen Pumpenhersteller KSB sollen Pumpen für den Primärkreislauf (Salzschmelze mit Uran) des IMSR entwickelt werden.

Durch die frühe Einbeziehung von Spezialisten als Partnerunternehmen für bestimmte Baugruppen, kann nicht nur die Entwicklungszeit, sondern insbesondere auch das Genehmigungsverfahren beschleunigt werden.

Brennstoff

Insbesondere für einen etwaigen Export müssen komplett neue Safeguards (Maßnahmen zur Überwachung von Nuklearmaterial) für diese Uran-Salze entwickelt werden. Dies geschieht in enger Zusammenarbeit mit dem CNL (Canadian Nuclear Laboratories) und der IAEA (International Atomic Energy Agency).

Für Brennstoffe in der Form von Salzschmelzen muß ein kompletter neuer Brennstoffkreislauf aufgebaut werden. Um die Sache nicht noch komplizierter zu machen, beschränkt sich Terrestrial Energy auf Uran mit einer Anreicherung von unter 5% U235 – also Brennstoff, wie er heute weltweit in Leichtwasserreaktoren verwendet wird. Damit kann man alle Vorstufen (Urangewinnung, Konversion und Anreicherung) bis zur Herstellung von Brennelementen komplett übernehmen. Erst mit der Herstellung der Uransalze scheiden sich die Wege. Dabei darf man auch die aufwendigen Transportketten nicht außer Acht lassen. Es ist deshalb beim IMSR auch kein Wechsel der Brennelemente vorgesehen. Der komplette „Reaktor“ soll nach sieben Betriebsjahren komplett durch einen „frischen Reaktor“ ausgetauscht werden. Man muß also nach sieben Jahren keine abgebrannten Brennelemente, sondern die ganzen „Töpfe“ mit all ihren Einbauten als „Atommüll“ zwischenlagern. Dies geschieht wohlwissend anfangs durch stehen lassen im Silo. Wenn die Strahlung auf ein handhabbares Maß abgeklungen ist, werden die „Töpfe“ in ein Zwischenlager auf dem Kraftwerksgelände abgestellt. Eine Wiederaufbereitung des Brennstoffs und eine Dekontamination der alten Reaktoren ist bis auf weiteres nicht vorgesehen. Prinzipiell ist dies möglich, aber erst sinnvoll, wenn man eine größere Anzahl verbrauchter „Reaktoren“ hat.

Partner beim Aufbau einer kompletten Kette für die Brennstoffversorgung ist Centrus Energy. Darüberhinaus gibt es auch eine Zusammenarbeit mit dem Brennstoffkonzern Cameco (Uranförderung, Reinigung, Konversion, Brennelemente für CANDU-Reaktoren etc.). Cameco möchte in den Bereich SMR diversifizieren und zusammen mit Terrestrial den Weltmarkt bedienen. Parallel gibt es eine ähnliche Zusammenarbeit mit Orano und Westinghouse für den Brennstoffkreislauf. Ziel ist es von Anfang an mit einer möglichst breiten Zulieferindustrie zu starten, um potentiellen Kunden eine unabhängige Versorgung zu ermöglichen. Die Energieversorger sind es heute gewohnt, über Systemgrenzen hinweg, Brennelemente für ihre Leichtwasserreaktoren einkaufen zu können. Versorgungssicherheit ist stets ein Killerkriterium.

Auch treten die engen Bindungen zwischen Kanada und GB wieder hervor: Das NNL (UK National Nuclear Laboratory) übernimmt viel Entwicklungsarbeit für den Brennstoff. In Bezug auf die notwendigen Tests der Brennstoffsalze greift man auf die jahrzehntelange Erfahrung in den USA zurück. Das ANL (US Department of Energy’s Argonne National Laboratory) übernimmt eine zentrale Rolle. Dies ist insbesondere für den Bau eines IMSR in den USA von ausschlaggebender Bedeutung, da bei diesem Reaktor das Brennstoffsalz der Kernbereich eines Genehmigungsverfahrens sein dürfte.

Politik

Die kanadischen Regierungen (auf Bundes- und Landesebene) stehen voll hinter dem Projekt. Es wurde nicht nur der unmittelbare Sinn der Energiegewinnung, sondern auch der industriepolitische und volkswirtschaftliche Vorteil erkannt. Kanada will ein unabhängiges Industrieland bleiben. Kerntechnik ist eine Schlüsseltechnologie, die alle anderen „High Tech Bereiche“ (Werkstofftechnik, Automatisierung, Software, usw.) nutzt und vor sich her treibt. Sie schafft jede Menge hochqualifizierter und gut bezahlter Arbeitsplätze. Überall in der Welt liegt das Lohnniveau deutlich über dem Durchschnitt.

Kanada hat schon immer – anders als in Deutschland – auf eine große Zustimmung in der Bevölkerung geachtet. So ist es sicherlich kein Zufall, daß Terrestrial nicht nur ein Grundsatzabkommen mit der FNPA (First Nations Power Authority) abgeschlossen hat, sondern auch Mitglied geworden ist. Die FNPA ist die einzige gemeinnützige Organisation im vollständigen Besitz und unter der Kontrolle der Indianerstämme (First Nations) in Nordamerika. Längst haben die Ureinwohner erkannt, daß es wenig Sinn macht, sich nur mit ein paar Arbeitsplätzen in den Bergwerken auf ihren Gebieten abspeisen zu lassen. Sie wollen gezielt in die Stromproduktion investieren, um die Lebensumstände ihrer Stämme zu entwickeln und gut bezahlte Arbeitsplätze für ihre Kinder zu erschaffen. SMR bieten für sie eine völlig neue Chance.

Der kanadischen Regierung ist es ernst. So hat sie im Oktober Terrestrial einen Zuschuss von umgerechnet 14 Millionen Euro gegeben, damit sie über 200 zusätzliche Mitarbeiter einstellen können, die das Genehmigungsverfahren beschleunigen sollen. Dieser Betrag wird als Investition des nationalen Innovationsfonds verbucht. Es ist weiterhin Ziel, bis 2028 den ersten IMSR ans Netz zu bringen. Dabei sollte man beachten, daß die kanadische Regierung durchaus nicht alle Eier in einen Korb legt. Parallel wird an noch zwei ausgewählten SMR gearbeitet: Dem nicht so exotischen Xe-100 von X-energy’s, einem Helium-Hochtemperaturreaktor und dem nahezu baufertigen Siedewasserreaktor BWRX-300 von Hitachi. Darüberhinaus werden natürlich die CANDU-Reaktoren modernisiert und weiter entwickelt. Kanada setzt voll auf Kernkraft.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Uralte Zeitzeugen belegen: Schon vor tausenden Jahren war es so warm wie heute

Kleider, Schuhe, Werkzeuge und sogar Skier: Schmelzendes Eis hat in Norwegen Teile freigegeben, die über tausend Jahre alt sind. Auch vom Berner Schnidejoch gibt es zahlreiche Gegenstände, die zum Teil aus der Steinzeit stammen.

image

von Alex Reichmuth

Im September haben Gletscherarchäologen in der norwegischen Gebirgsregion Reinheimen einen spektakulären Fund gemacht. Sie haben auf dem Eisfeld Digervarden einen Ski aus Holz geborgen, der gemäss einer Radiokarbondatierung rund 1300 Jahre alt ist. Er stammt also ungefähr aus dem Jahr 700 nach Christus. Am Ski hing eine Bindung aus Leder- und Birkenrindenriemen. Das Fundstück war vom schmelzenden Eis freigegeben worden.

Der gefundene Ski ergibt mit einem weiteren Exemplar, das bereits 2014 an der gleichen Stelle entdeckt wurde, ein vollständiges Paar. Die Skier dienten dem Benutzer dazu, besser im Schnee voranzukommen. Gemäss den Archäologen gab es damals drei Gründe, um in die Bergregionen Norwegens aufzusteigen: für die Jagd, den Viehtrieb und den Handel. Offenbar waren die klimatischen Bedingungen damals entsprechend günstig.

3000 dokumentierte Objekte

Die Skier sind bei weitem nicht die einzigen Fundstücke aus längst vergangenen Zeiten, die aufgrund der Eisschmelze in Norwegen ans Tageslicht gekommen und gefunden worden sind. Eine Forschergruppe um Lars Holger Pilo hat im Rahmen des Projektes «Secrets of the Ice» bisher über 3000 Objekte dokumentiert, die aus Eisfeldern in der Provinz Innlandet stammen.

Es handelt sich um Schuhe, Kleidungsstücke, Werkzeuge, Hufeisen, Pfeile und andere Gebrauchsgegenstände. Die ältesten sind bis zu 6000 Jahre alt und stammen aus der Jungsteinzeit. Erhalten sind diese Gegenstände nur, weil sie vom Eis über Jahrhunderte oder Jahrtausende konserviert worden sind.

Als besonders ergiebig erwies sich das norwegische Lendbreen-Eisfeld. Es befindet sich an einem Passübergang, der früher rege benutzt worden ist. Hier fanden sich über 1000 Teile aus dem menschlichen Alltag. Pilo und seine Kollegen haben letztes Jahr im Fachmagazin «Antiquity» über die Fundstücke und ihre Geschichte berichtet (siehe hier).

Höhepunkt der Reiseaktivität um das Jahr 1000

Zu diesen Gegenständen zählen unter anderem Schlitten, Handschuhe, Schneebesen, Küchengeräte und Kleidungsstücke. Sie stammen aus dem Zeitraum zwischen 300 und 1500 nach Christus. Der Lendbreen-Pass diente damals Siedlern und Bauern als Reiseroute. Die Menschen pendelten zwischen ihren dauerhaften Wintersiedlungen am Fluss Otta und ihren höhergelegenen Sommerfarmen. Die Reiseaktivität erreichte ihren Höhepunkt um das Jahr 1000, als im Rahmen der Mittelalterlichen Warmzeit milde klimatische Bedingungen herrschten.

In der Schweiz gibt es ein Pendant zum Lendbreen-Pass: das Schnidejoch, das von den Berner Oberländer Orten Lauenen und Gstaad ins Wallis zum Lac de Tseuzier führt. Auch am Schnidejoch haben abschmelzende Gletscher unzählige Gegenstände des menschlichen Gebrauchs freigelegt. Die ältesten von ihnen stammen von jungsteinzeitlichen Jägern und Sammlern – und sind mehr als 6500 Jahre alt.

Eine Lederschuh aus der Bronzezeit

Neben Ausrüstungsgegenständen wie Pfeil, Bogen und Köcher wurden unter anderem Gegenstände aus Leder gefunden, darunter ein Schuh aus der Bronzezeit. Der Lederschuh wird derzeit in einer Wanderausstellung des Archäologischen Dienstes des Kantons Berns gezeigt. Er stammt aus der Zeit zwischen 2000 und 1500 Jahre vor Christus und ist einer der Belege, dass das 2750 Meter hohe Schnidejoch während der letzten Jahrtausende immer wieder als Übergang zwischen dem Berner Oberland und dem Wallis benutzt worden ist.

Die ersten Gegenstände am Schnidejoch waren 2003 von Wanderern gefunden worden. Nach dem damaligen Hitzesommer waren die Gletscher besonders stark zurückgewichen. 2004 und 2005 suchte der Archäologische Dienst das Gebiet minutiös ab und konnte rund 300 Gegenstände sicherstellen. Auch bronzene Gewandnadeln und römische Schuhnägel waren darunter.

Bis zu 2 Grad höhere Sommertemperaturen

Projektleiter Albert Hafner schwärmte 2005 gegenüber der «Berner Zeitung» von einem «einzigartigen Fund». Auch in den darauf folgenden Jahren tauchten am Schnidejoch immer wieder Fundstücke aus dem Eis aus – so etwa 2019 ein Beutel aus Bast.

Das Schnidejoch diente namentlich in der Jungsteinzeit  als Übergang. Gemäss Experten herrschte im 3. Jahrtausend bis etwa 1750 vor Christus ein vergleichsweise mildes Klima mit Sommertemperaturen, die bis zu 2 Grad über den Werten der 2000er-Jahre lagen. Die Gletscher hatten sich damals soweit zurückgezogen, dass der Pass in den Sommermonaten überquert werden konnte.

Auch zwischen 150 vor Christus und 400 nach Christus war das Klima günstig, und das Schnidejoch wurde wieder eifrig benutzt. Dasselbe gilt für die Mittelalterliche Warmzeit bis ins 14. und 15. Jahrhundert. Erst ab dem 16. Jahrhundert versperrten die Gletscher, die im Zuge der Kleinen Eiszeit vorgestossen waren, den Weg über den Pass.

Nur mit dem Fund von Ötzi vergleichbar

Die archäologischen Funde am Schnidejoch sind von ihrer Bedeutung her nur mit der Entdeckung von Ötzi auf einem Passübergang zwischen Österreich und Italien vergleichbar – zumindest, was die Alpen angeht. Die gut erhaltene Gletschermumie, die über 5000 Jahre alt ist, wurde 1991 vom Eis freigegeben. Der Fund war eine wissenschaftliche Sensation. Er belegte unter anderem, dass die Menschen in der Jungsteinzeit Bergübergänge benutzten, die heute weitgehend vereist sind. Auch der Fund von Ötzi legt nahe, dass die klimatischen Bedingungen früher zum Teil sehr milde waren.

Das bestätigen auch Eisbohrkerne von der 3500 Meter hohen Weissseespitze, die ganz in der Nähe des Fundortes von Ötzi liegt. Die Analyse eines Wissenschaftlerteams um den österreichischen Gletscherspezialisten Pascal Bohleber zeigte letztes Jahr, dass sich das Eis auf diesem Berggipfel erst vor rund 5900 Jahren gebildet hat. «Das legt nahe, dass der Gipfel davor eisfrei war», sagte Bohleber gegenüber dem Portal «wissenschaft.de». «Unsere Hypothese ist, dass damals auch in hohen Lagen kein für dauerhafte Vergletscherung günstiges Klima vorlag, etwa weil es zu warm war.»  Heute dagegen liegt die Weissseespitze noch immer unter meterdickem Eis.

10’000 Jahre alte Lärchen beim Morteratschgletscher

Auch die Holzfunde des Berner Geologen Christian Schlüchter sind ein Beleg, dass die heutige Gletscherschmelze alles andere als einzigartig ist. Es handelt sich um Teile von Bäumen, die von Gletschern freigegeben wurden – auf einer Höhe weit über der heutigen Baumgrenze. Zu diesen Funden gehören etwa Stämme von Lärchen bei Morteratschgletscher im Kanton Graubünden, die über 10’000 Jahre alt sind. Schlüchter konnte zusammen mit Kollegen nachweisen, dass die Gletscher der Alpen seit dem Ende der letzten Eiszeit vor rund 11’000 Jahren mehrmals eine geringere Ausdehnung hatten als heute (siehe hier und hier).

Der Beitrag erschien zuerst im Schweizer Nebelspalter hier

 

 




Klimaschutz: Die Welt ist nicht verdammt

In Glasgow hat sich einmal mehr gezeigt, dass der Top-Down-Ansatz in der Klimapolitik nicht funktioniert. Doch dank wirtschaftlicher Entwicklung und technologischem Fortschritt ist das Ende des ständig steigenden Energie- und Ressourcenverbrauchs längst eingeläutet. Eine Nachlese zur Klimakonferenz.

image

von Alex Reichmuth

Svenja Schulze gab sich nach dem Abschluss der Klimakonferenz erfreut. In Glasgow sei etwas «Weltbewegendes» gelungen, verkündete die deutsche Umweltministerin (SPD). Erstmals habe eine Klimakonferenz nicht nur Ziele formuliert, sondern auch konkrete Massnahmen. Schulze meinte damit, dass nun Regeln definiert worden sind, wie das Pariser Abkommen von 2015 umgesetzt werden kann.

Die meisten anderen Teilnehmer mochten den Optimismus von Schulze nicht teilen. Man könne nicht von einem Erfolg in Glasgow sprechen, gab die Schweizer Umweltministerin Simonetta Sommaruga zu, die bis in die Schlussminuten mit verhandelte. «Die Klimakatastrophe steht weiter vor der Tür», bilanzierte Uno-Generalsekretär Antonio Guterres. Verdorben hat die Laune der beiden insbesondere, dass das Dekret zur Abkehr von der Kohleenergie in letzter Minute verwässert worden ist – auf Druck von Indien und China. Angestrebt wird nun nicht der vollständige Ausstieg aus der Kohle, sondern lediglich deren Reduktion.

Konferenz der Ankündigungen

Man kann sich allerdings fragen, wie bedeutsam dieser Unterschied ist. Weltweit sind über 1000 Kohlekraftwerke in Bau oder Planung, vor allem in Asien (siehe hier). Dass sich die Länder davon abbringen lassen, diese Anlagen in Betrieb zu nehmen, weil einige steife Klimadiplomaten an einer windigen Konferenz das beschlossen haben, ist zu bezweifeln. Ob dabei von Ausstieg oder nur von Abkehr die Rede ist: Das dürfte kaum eine Rolle spielen.

Überhaupt besteht das Ergebnis von Glasgow vor allem aus Ankündigungen: Die Entwaldung soll gestoppt und der Methan-Ausstoss begrenzt werden. Der Verbrennungsmotor soll verbannt und die Verbilligung fossiler Energie reduziert werden. So war es schon bei den letzten 25 Ausgaben der Weltklimakonferenz: Ausser schönen Absichtserklärungen bleibt da nicht viel.

Verordnete Dekarbonisierug hat keinen Stich

Denn die Weltgemeinschaft hat ein Problem: Der Top-Down-Ansatz, wie er Jahr für Jahr in der Klimapolitik von Neuem zelebriert wird, funktioniert nicht. Die Idee, dass eine grosse Zusammenkunft den Lauf des Weltgeschehens verändern kann, ist realitätsfremd.

Zum Einen habe viele Staatslenker gar kein Interesse an verordnetem Klimaschutz. Die Regierungen von China oder Indien etwa sind sich bewusst, dass ein rascher Ausstieg aus der Kohle verheerende Auswirkungen auf Wirtschaft und Wohlstand ihrer Länder hätte. Klimaschutz ist für sie nur ein Lippenbekenntnis.

Zum Anderen scheitern auch diejenigen Staatsführer, die ehrlich bemüht sind, die Beschlüsse in ihrer Heimat umzusetzen. Die  Bevölkerung widersetzt sich den Anordnungen von oben, sei es an der Urne wie in der Schweiz oder auf der Strasse wie in Frankreich.

Klimaschutz per Dekret bedeutet automatisch Wohlstandsverlust – und das Volk lässt sich den Wohlstand nicht wegnehmen. Die verordnete Dekarbonisierung hat keinen Stich.

Immer mehr Wirtschaftsleistung aus immer weniger Ressourcen

Was bedeutet das nun? Müssen wir in Panik geraten, wie es die Klimaaktivistin Greta Thunberg möchte? Schaufeln wir unser eigenes Grab, wie Antonio Guterres zu Beginn der Klimakonferenz warnte?

Nein, die Welt ist nicht verdammt. Im Gegenteil: Sie ist längst auf den Pfad der Ökologie eingeschwenkt – ganz unabhängig davon, was die Klimadiplomatie beschliesst. Denn in den Industrieländern hat sich der Trend zu einem immer höheren Verbrauch an Energie und Ressourcen bereits umgekehrt – und es deutet alles darauf hin, dass das auch in der ganzen Welt bald so ist.

Die Zahlen dazu liefert der amerikanische Ökonom und Publizist Andrew McAfee in seinem Buch «Mehr aus weniger». Der Autor geht darin dem Phänomen nach, dass die Weltwirtschaft in der Lage ist, immer mehr Wirtschaftsleistung aus immer weniger Ressourcen zu generieren (siehe hier).

«Enorme Entkopplung»

Konkret weist McAfee nach, dass seit einigen Jahrzehnten eine eigentliche Dematerialisierung im Gange ist – zumindest in den entwickelten Ländern. Bis etwa 1970 wuchs der Verbrauch an Stahl, Aluminium und Kupfer noch im Gleichschritt mit der Wirtschaft. Seither aber hat eine «enorme Entkoppelung» stattgefunden. Seit dem Jahr 2000 ist der Einsatz der drei Metalle in den USA sogar zurückgegangen – trotz wachsender Wirtschaft.

Ein ähnliche Entwicklung gibt es auch bei Kunstdünger, Wasser und Agrarland – ebenso bei Zement, Sand, Kies, Holz oder Papier: Der Verbrauch in den industrialisierten Ländern geht zurück, während gleichzeitig der Output an Gütern steigt.

Energieverbrauch in den USA nimmt ab

Dasselbe gilt – und das ist hinsichtlich des Klimaschutzes besonders wichtig – auch für die Energie. Andrew McAfee zeigt anhand von Wirtschaftsdaten, dass sich der Energieverbrauch in den USA von 1800 bis 1970 noch parallel zur Wirtschaftsleistung entwickelt hat. Dann verlangsamte sich dieses Wachstum, um schliesslich sogar negativ zu werden. «Es hat mich überrascht, dass der gesamte US-Energieverbrauch im Jahr 2017 fast zwei Prozent niedriger war als bei seinem Maximum im Jahr 2008, zumal unsere Wirtschaft in diesem Zeitraum um mehr als 15 Prozent gewachsen war», schreibt der Autor.

«Ich sage jetzt schon voraus, dass auch Schwellenländer wie Indien und China in nicht allzu ferner Zukunft mehr aus weniger machen werden.»

Andrew McAfee, Ökonom

Laut McAfee findet eine ähnliche Dematerialisierung auch in anderen entwickelten Ländern statt. Schwellenländer wie Indien und China seien wahrscheinlich noch nicht in diese Phase eingetreten. «Aber ich sage jetzt schon voraus, dass auch sie in nicht allzu ferner Zukunft mehr aus weniger machen werden.»

Unternehmen wollen weniger Material verbrauchen

Weniger Energie bedeutet weniger Kohle, Öl und Gas – und damit weniger CO₂. Und auch weniger Zement, Stahl oder Papier bedeuten weniger Klimagase. Die Dematerialisierung der Welt geht darum mit einer Dekarbonisierung einher.

Andrew McAfee nennt zwei Haupttreiber dieser verheissungsvollen Tendenz: wirtschaftliche Entwicklung und technologischen Fortschritt. Je höher entwickelt eine Wirtschaft ist, desto ressourcenschonender ist sie. Denn die Unternehmen haben alles Interesse, technologische Neuerungen zu nutzen, um weniger Material zu verbrauchen.

Die Klimadiplomaten werden sich auch nächstes und übernächstes Jahr wieder zu einer Konferenz einfinden. Und sie werden wieder hehre Absichten formulieren, wie sie die Welt zu einem besseren Ort machen wollen. Egal, was sie beschliessen: Es wird weitgehend ohne Folgen bleiben.

Innovation ist wichtig

Denn die entscheidende Entwicklung findet an der Basis statt. Dort erfinden schlaue Physiker effizientere Energiesysteme. Dort tüfteln findige Ingenieure an ressourcensparenden Produktionsprozessen. Und dort versuchen gewitzte Ökonomen, mehr aus weniger zu machen. Sofern man sie denn nur machen lässt.

Der Beitrag erschien zuerst im Schweizer Nebelspalter hier

 




Dada und die Windmacher

Von Ralph Willenbücher.

Die Energiepolitik der EU, der Bundesregierung und vor allem der grün regierten Länder setzt auf die völlige Dekarbonisierung bis 2050. Erreicht werden soll dies durch 100 Prozent Energieerzeugung aus Erneuerbaren. Dass dies nicht gelingen kann, wenn gleichzeitig die Kernkraft ausgeschlossen wird, insbesondere nicht durch den Deutschen Sonderweg mit seinem durch das Erneuerbare-Energien-Gesetz geförderten zügellosen Ausbau der Windkraft – hat beispielsweise der ehemalige Präsident des ifo Institutes in München, Professor Hans-Werner Sinn, in einem auch für Laien gut verständlichen und weithin beachteten Vortrag am 16.12.2019 dargelegt.

Im Prinzip spricht er aus, was sehr Viele in der Wirtschaft denken, aber nur unter vorgehaltener Hand zu sagen bereit sind. Aber warum funktioniert dieses System? Warum gelingt es den Windkraftlobbyverbänden wie dem BWE, dem BUND oder teilweise auch dem NABU, die Bundesregierung wie am Nasenring durch die Manege zu ziehen und praktisch jeden Wunsch durchzusetzen? Im Wesentlichen deshalb, weil sich der Staat unter Merkel in eine aussichtslose Lage manövriert hat und aus dem Energiewendeschlamassel nicht mehr herauskommt. Man fährt seit Jahren auf Sicht und hofft, dass der Schwindel bis nach den nächsten Wahlen nicht auffliegt. Hierfür hat man sich die passenden Instrumente und Strukturen geschaffen.

Der Klimahype mit seinem unmittelbar bevorstehenden Weltuntergang treibt die Energiewende im Moment geradezu auf die Spitze. Der Erneuerbaren-Wahn hatte zwar bereits vor mehr als zwei Jahrzehnten begonnen, doch nahm er insbesondere unter dem heliozentrischen System Merkel enorme Fahrt auf. Sicher war auch irgendwann im Bundeswirtschaftsministerium die Erkenntnis gereift, dass die Aufrechterhaltung einer stabilen, grundlastfähigen Energieversorgung aus volatilen Umgebungsenergien wie Wind und Sonne für einen modernen Industriestaat mit derzeit und in den nächsten Jahrzehnten verfügbaren Techniken grundsätzlich nicht möglich sein wird. Unschöne Dinge wie die Hauptsätze der Thermodynamik stellen, auch wenn sie keine Naturgesetze sind, seit über 150 Jahren einen unüberwindbaren Graben für alle diejenigen dar, die Energie aus dem Nichts erschaffen, verlustfrei speichern, oder von Strom nach Wärme und beliebig oft hin und her wandeln wollen.

Weltuntergang für den Zweifler

Was also tun? Stoppen konnte die Bundesregierung diesen Wahn nicht. Dies hätte bedeutet, dass man hätte erklären müssen, warum man mehrere hundert Milliarden Euro sinnlos für EEG-Subventionen verschwendet hat. Ein Wirtschaftsunternehmen würde dies tun, um noch größeren Schaden zu verhindern. In der Politik ist derartiges Handeln jedoch unüblich. Die Devise hieß also weiterwurschteln, das tote Pferd weiterreiten und auf keinen Fall einen Fehler zugeben, zumal die Opposition von der Richtigkeit des eingeschlagenen Weges überzeugt ist und von all dem Unsinn noch viel mehr verlangt. Dies gilt natürlich vor allem für die durch technischen und naturwissenschaftlichen Sachverstand unbelasteten Grünen.

Da der Widerstand in Wirtschaft und Bevölkerung wuchs, war es notwendig geworden, die sogenannte Energiewende mit einem pseudowissenschaftlichen Rahmen zu umweben. Zudem musste eine Kette von Erfolgen kommuniziert werden, und als Drohszenario war der Weltuntergang für den Zweifler in Aussicht zu stellen. Dieses System wurde im letzten Jahrzehnt weitgehend perfektioniert. Für die pseudowissenschaftliche Umrahmung sei hier stellvertretend für viele anderen Professor Claudia Kemfert erwähnt. Sie rechnet seit Jahren beim DIW die Energiewende regierungskonform schön und ist das Energiewende-Starlet des zwangsgebührenfinanzierten Bezahlfernsehens. Die Technikhistorikerin Dr. Anna Veronika Wendland und der Physiker Dr. Björn Peters haben sich die Mühe gemacht, einen von Kemferts Aufsätzen einer kritischen Prüfung zu unterziehen. Ihre vernichtende Kritik findet sich hier.

Unbedingt erwähnenswert auch die beiden Fraunhofer Institute in Kassel (IEE) und Freiburg (ISE). Diese Institutionen veröffentlichen regelmäßig Erfolgsberichte, die man etwa folgendermaßen zusammenfassen kann: „Es wurde viel erreicht, wir sind auf dem richtigen Weg, die Energiewende wird klappen, die Anstrengungen müssen aber weiter erhöht werden …“ Natürlich geben auch Ministerien, Ämter und Landesagenturen beständig Schriften, Heftchen und Pressemitteilungen heraus, die die vorzügliche Arbeit und die Erfolge ebendieser Ministerien, Ämter und Landesagenturen bei der Umsetzung der Energiewende beschreiben.

Dadaistische Texte zur Klimapolitik

Die Medien wiederum übernehmen und veröffentlichen diese „Informationen“ dann in der Regel kritiklos und dankbar. Nebenbei bemerkt, ist diese Art von angegrüntem Verlautbarungsjournalismus für Westdeutschland relativ neu, im Osten aber ein alter Hut. Vielleicht erklärt dies zumindest teilweise die bescheidenen Wahlerfolge der Grünen im Osten. Schließlich wurden dort regelmäßig neue Planerfüllungsrekorde verkündet, während gleichzeitig die Regale in den staatlichen Läden immer leerer wurden.

Schlussendlich die Apokalypse. Hier stehen neben der Seherin Greta an vorderster Front Persönlichkeiten wie der telegene Kieler Ozeanologe, Klimaprophet und Weltuntergangsspezialist Mojib Latif sowie die Warmrechner vom Potsdamer Institut für Klimafolgenforschung, vom studierten Meteorologen und früheren Fernsehwettermacher Jörg Kachelmann gerne als „Das potsdämliche Institut“ bezeichnet. Die unangefochtene Lichtgestalt der Bewegung ist allerdings der Klimawanderprediger und mystische Apokalyptiker Prof. Schellnhuber, Berater der Kanzlerin und des Papstes in Sachen Klima. Unübertroffen sind seine dadaistischen Texte zur Klimapolitik.

Von 2009 bis 2016 präsidierte er den mit Steuergeldern gefütterten Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU). Man sollte sich wirklich einmal die sinnfreien Texte dieses illustren Kränzchens ansehen (zum Beispiel WBGU Hauptgutachten). Der US-amerikanische Philosoph Harry Frankfurt hatte für dieses politische Genre bereits in den achtziger Jahren des letzten Jahrhunderts den treffenden Begriff „Bullshit“ geprägt. Am Text des WBGU wird deutlich, auf welcher Grundlage die Klimanauten im Bundeskanzleramt unter Commander Angie ihre Entscheidungen treffen. Zum 1.1.2020 wurde der Politologe Prof. Dirk Messner – seit 2013 Vorsitzender des WBGU – zum Leiter des Bundesumweltamtes ernannt. Es lohnt sich also, im linksgrünen Klimazirkus mitzuschwimmen.

Staatliche Klimapropaganda aus Wiesbaden

Wie die staatliche Energiewendekommunikation in der Praxis abläuft, wird am Beispiel der Vorstellung des Monitoringberichts 2019 zur Energiewende in Hessen deutlich. In Hessen regiert seit 2013 eine schwarz-grüne Koalition. Die Energiepolitik liegt aber praktisch vollständig in der Hand des grünen Ministers Al-Wazir. Der Bericht wird jährlich vom Hessischen Ministerium für Wirtschaft, Energie, Verkehr und Wohnen herausgegeben und dient selbstverständlich der Verherrlichung und Lobpreisung der grünen Energiepolitik.

Zu diesem 168-seitigen Bericht gibt es zusätzlich eine Präsentation mit 14 Folienseiten. Das liest natürlich niemand. Schlussendlich ist eine kurze Pressemitteilung erschienen, in der herausgehoben wird, dass der Anteil der Erneuerbaren an dem in Hessen verbrauchten Strom im ersten Halbjahr auf den Rekordwert von 24,5 Prozent angestiegen ist, und dass der in Hessen erzeugte Strom gar zu 48 Prozent aus Erneuerbaren Energien stammt.

Lediglich diese Zahlen finden dann in der Regel den Weg in die Medien. Weiterhin wird zwar noch erwähnt, dass der erneuerbare Anteil am Primärenergiebedarf bei 10,4 Prozent liegt, aber das versteht ohnehin niemand. Beim mehrheitlich flüchtig lesenden Medienkonsumenten entsteht dann der völlig irrige Eindruck, dass knapp die Hälfte des Energiebedarfs in Hessen heute schon durch Wind und Sonne geliefert wird und man nur noch ein paar Windrädchen bauen müsse, um die andere Hälfte auch noch zu schaffen und CO2-frei zu werden. Tatsächlich ist dies aber Unsinn. Die Pressemitteilung bezieht ihre Hurrameldungen selbstverständlich nur auf die Stromerzeugung.

Der Beitrag erschien zuerst bei ACHGUT hier