Wie Wohlstand und Zugriff auf billige jederzeit verfügbare Energie zusammenhängen

von Dr. Lutz Niemann

Unser Wohlstand wird begründet durch billige Energie zu jeder Zeit. Wir brauchen

1) täglich Nahrung, dazu

2) Wärme im Winter,

3) Arbeit zum Geldverdienen, um Pkt. 1 und 2 bezahlen zu können,

4) vieles anderes wie Mobilität, einige Wochen Urlaub,

5) …

In dieser Reihenfolge sind die Dinge nach ihrer Wichtigkeit einzuordnen. Punkt 1 ist zum Leben unersetzlich, das war schon immer so. Ohne Wärme im Winter wird es bei uns recht ungemütlich. Hoch droben im Himalaya gibt es auch heute noch Menschen, die den Winter ohne Heizung überstehen müssen.

Zu allem ist eine Energiequelle erforderlich. Mit Entdeckung der fossilen Energien und deren Nutzung durch Maschinen begann der Wohlstand auf der Welt. Die menschliche Arbeitskraft und die Kraft von Arbeitstieren in der Landwirtschaft wurden durch Maschinen ersetzt.

Es gibt grundsätzlich nur 3 Energiequellen, die zu unterscheiden sind:

  • Die Sonne, sie wärmt uns direkt, deren Energie treibt die Windräder und Wasserkraftwerke an, Brennholz ist in kurzer Zeit gespeicherte Sonnenenergie. Dieses waren die Quellen im Mittelalter. Aber die Energiedichte ist gering. Es konnten in Deutschland nur wenige Millionen Menschen leben, es war ein ständiger Kampf unter körperlichem Einsatz fürs Essen und Wärme in Winter. Die einzige Maschine in der Landwirtschaft war der „Hafermotor“, sein Betrieb verbrauchte ein Großteil der Ernte.
  • Die fossilen Quellen Kohle, Öl, Gas sind Sonnenenergie, die über Jahrmillionen gespeichert worden ist. Die Entdeckung dieser Quellen brachte die Industrialisierung, es wurden Maschinen erfunden, angefangen von der ersten Dampfmaschine in England bis zum Dieselmotor für den Pkw in Deutschland. Quälende körperliche Arbeit wurde verdrängt durch Maschinen, ein beachtlicher Schritt zu unserem heutigen Wohlstand. Aber die Lagerstätten für die fossilen Energien sind begrenzt. Beim Nordseeöl ist es heute längst zu sehen.
  • Ein riesiger Schritt zu unbegrenzter Energie brachte die Entdeckung der Kernspaltung. Die im Atomkern gespeicherte Energie hat eine millionenfach höhere Dichte im Vergleich zu der in der Elektronenhülle der Atome gespeicherten chemischen Energie. Die Reichweite nimmt gigantisch zu.

Die wichtigsten Zusammenhänge sind hier dargestellt:

Deutschland rühmt sich, als einziges Land der Erde zunächst auf die Energie der Kernspaltung zu verzichten. Als nächstes treibt Deutschland über die EU mit dem Schlagwort „Dekarbonisierung“ den Ausstieg aus Kohle, Öl und Gas voran. Ist das alles mit einsichtigen Argumenten zu begründen???

Nein – dieser Schritt zurück ins Mittelalter durch die Politik mit seinen Folgen wird in deutschen Medien wie Zeitungen und öffentlich rechtlichen elektronischen Medien nicht diskutiert, nur in privaten Medien wie (hier).

Das wichtigste ist die Ernährung

Die Ernährung des Menschen ist nun einmal unverzichtbar. Ohne dieselbetriebene landwirtschaftliche Maschinen muß der Hafermotor wieder eingesetzt werden, wie es in der „guten alten Zeit“ war. Der Hafermotor verbraucht zu seinem Antrieb den größten Teil der erzeugten Nahrung, für den Menschen bleibt nur wenig übrig. E-Mobilität ist in der Landwirtschaft nicht möglich, denn mit batteriebetriebenen Traktoren kommt der Landwirt von seinem Hof gerade bis zu seinem Acker, dann ist die Batterie leer – und was dann??? Ohne die fossilen Energien ist die heutige Menschheit nicht zu ernähren. Der deutsche Schritt zurück ins Mittelalter erfordert die Rückführung der Wohnbevölkerung von 83 Millionen auf wenige Millionen Menschen (und Menschinnen). Wie soll das erreicht werden??? Die deutsche Politik schweigt dazu.

Exkurs zu den Möglichkeiten der Kernspaltungsenergie

Als durch die Arbeiten von Otto Hahn, Fritz Strassmann, Lise Meitner die Kernspaltung an Uran-235 entdeckt wurde, geschah die Spaltung mit thermischen Neutronen. Uran-235 ist nur mit einem geringen Anteil von 0,7% im Natururan enthalten, dadurch wird die Energieerzeugung aus Uran begrenzt. In den USA wurde sehr früh erkannt, daß sich mit schnellen Neutronen (1MeV) auch Uran-238 spalten lässt. Der Spaltquerschnitt ist zwar viel geringer, aber das lässt sich durch andere Maßnahmen beim Reaktorbau ausgleichen. Durch Schnelle Reaktoren kann 200-mal mehr Energie gewonnen werden und Thorium erweitert die Möglichkeiten nochmals.

Sehr wichtig: Wenn man die Möglichkeit von Schnellen Reaktoren berücksichtigt und auch die Nutzung von Thorium einbezieht, lässt sich die Reichweite der Energieversorgung durch Kernspaltung um den Faktor 1000 erhöhen: Aus Tausend Jahren werden dann Millionen Jahre.

Was macht die Politik aus diesen Möglichkeiten?

Die Möglichkeiten von Schnellen Reaktoren wurden natürlich auch in Deutschland und weiteren Industrieländern erkannt. In Deutschland wurden der Brüter SNR-300 in Kalkar (und der THTR in Hamm-Uentrop) erbaut. Beide wegweisenden Prototypen wurden von der Politik gekillt.

Heute ist Rußland bei Schnellen Reaktoren weltweit führend. Ein Reaktor doppelt so groß wie in Kalkar (der wieder abgerissen wurde) läuft in Rußland schon über 40 Jahre. China hat einen Vertrag mit Rußland, um die Schnelle-Reaktor-Technologie zu kaufen. Indien betreibt eigene Entwicklung.

Die USA haben im Oktober unter Trump ein Forschungsprogramm zum Einstieg in die Schnelle-Reaktor-Technik gestartet. Es bleibt abzuwarten, was die neue Führung unter den Demokraten daraus macht.

Wie sieht es mit den Reichweiten der Energiequellen aus?

Es ist absehbar, daß die fossilen Energien eines Tages zu Ende sind. Der peak-oil in der Nordsee ist längst überschritten worden. In den Niederlanden kommt das Ende der Gasvorräte in Sicht, daher beginnen die Niederländer mit der Diskussion zum Neubau von 10 Kernkraftwerken. Das Land könnte damit vollständig mit Strom und Heizwärme versorgt werden. Irgendwann wird es auch mit den riesigen Vorräten im Nahen Osten, Rußland, USA, Venezuela bergab gehen.

Kluge Länder sorgen vor, daher geht es mit dem Ausbau der Kernenergie weltweit bergauf (siehe hier, hier).

Deutschlands Führungsposition

Deutschland hatte sich nach dem 2-ten Weltkrieg aus den Ruinen in eine Führungsposition hinauf gearbeitet, indem es die sichersten Kernkraftwerke gebaut hat. Das wurde von der IAEA bestätigt.

Das Kernkraftwerk Grohnde hatte in diesem Jahre den Weltrekord von erzeugten 400 Milliarden kWh Strom erreicht, und es hatte 8 mal die Spitzenposition bei den top-ten der besten KKW’s bezüglich der Strommenge erreicht. Am Ende dieses Jahres soll es für immer abgeschaltet werden und nach politischer Vorgabe sofort für alle Zeiten unbrauchbar gemacht werden.

Ende des Jahres 2022 soll das Kernkraftwerk Isar 2 folgen, es war 9 mal Weltmeister und wird vielleicht auch die Marke von 400 Milliarden kWh Strom erreichen.

Diese Führungsposition in moderner Energiebereitstellung hat Deutschland aufgegeben. Heute ist es führend bei der Technik von Windmühlen, das ist Mittelalter.

Deutschland will tiefer hinein in die Sackgasse der Energiewende: Peter Altmaier (CDU) will Wind ausbauen auf 70GW (+10%) und Sonne ausbauen auf 100GW (+50%). Dazu kommen weitere unmögliche Pläne:

  • E-Mobilität: Woher soll der Strom kommen? Bei Minusgraden funktionieren Batterien kaum noch.
  • Wasserstoffwirtschaft: Welche der 3 oben genannten Quellen soll den Explosivstoff H2 liefern?
  • Stromspeicherung funktioniert nur für Kleinanwendungen, nie für die großen erforderlichen Mengen.

Die Wahlergebnisse zeigen, daß die Mehrheit der Deutschen die technischen Zusammenhänge nicht versteht.

Was ist zu tun?

Es ist sinnvoll, fossile Energien zu sparen. Allerdings nicht wegen CO2 und Klima, weil CO2 keinen Einfluß auf die Wetterphänomene in der Atmosphäre hat. Fossile Energien sind unersetzlich für die Ernährung der Menschheit. Und sie sind unersetzlich für die Mobilität an Land und in der Luft. Für den Warenverkehr auf den Weltmeeren sind Kernreaktoren die beste Möglichkeit, das sollte genutzt werde. Im Winter können Häuser mit Kernstrom geheizt werden.

„Kernkraft ist eine der großartigsten Erfindungen der Menschheit“, das ignoriert Deutschland.

Erst wenn in Deutschland das Licht ausgeht — wird den Deutschen ein Licht aufgehen.

 




Die Mär vom Netto-Null-Ziel

Der Konsens nach Erscheinen des neuen Klimaberichts scheint klar: Die Welt muss den CO2-Ausstoss bis 2050 vollständig eliminieren, um den Klimawandel zu stoppen. Richtig ist aber, dass eine Reduktion um 50 Prozent absolut ausreicht, um den CO2-Gehalt in der Atmosphäre zu stabilisieren.

von

Alex Reichmuth

Die Natur nimmt über 50 Prozent des vom Menschen ausgestossenen CO2 wieder auf.

«Netto-Null» ist eine der Wortkreationen, die bis vor wenigen Jahren noch kaum jemand kannte, nun aber in aller Munde ist. «Netto-Null» ist gleichbedeutend mit Klimaneutralität: Unter dem Strich erzeugt der Mensch keine Treibhausgas-Emissionen mehr. Was noch an CO2 ausgestossen wird, muss durch sogenannte negative Emissionen kompensiert werden, also durch die aktive Eliminierung von CO2 aus der Atmosphäre.

Es gibt einen politischen Konsens, dass das Netto-Null-Ziel bis Mitte dieses Jahrhundert erreicht sein muss, um einen gefährlichen Klimawandel zu verhindern. Gemäss dem Klimaabkommen von Paris sollen die CO2-Emissionen bis 2050 auf Null sinken, damit sich die Erde nicht um mehr als zwei Grad erwärmt. Die Schweiz und viele andere Staaten haben× sich zu diesem Ziel verpflichtet. Deutschland will das Netto-Null-Ziel gar bis 2045 erreichen.

Grüne Politiker und Klimaaktivisten fordern, dass die Klimaneutralität gar noch früher angepeilt wird.

Der Weg zu «Netto-Null» ist aber ungeheuer steinig. Nur schon die Reduktion der Emissionen um die Hälfte sorgt für Gegenwehr. Die Schweiz hat in Paris zugesagt, als ersten Schritt den

CO2-Ausstoss bis 2030 um die Hälfte (gegenüber 1990) zu reduzieren. Im CO2-Gesetz waren

Massnahmen vorgesehen, um dieses Ziel zu erreichen, wie etwa eine höhere CO2-Abgabe auf Heizöl, einen Benzinpreis-Zuschlag und eine Flugticket-Abgabe. Doch das Stimmvolk hat dieses Gesetz am 13. Juni versenkt.

Zweite Hälfte der Reduktion wäre besonders teuer

Dabei dürfte die Eliminierung der zweiten Hälfte des CO2-Ausstosses enorm viel anstrengender werden. Denn die Massnahmen, die relativ einfach umzusetzen sind, werden dann schon alle vollzogen sein. Es bleiben nur schwierige und teure weitere Abbauschritte. Zudem gibt es industrielle Prozesse wie die Herstellung von Zement, die zwangsläufig mit dem Ausstoss von Kohlendioxid einhergehen. Um dennoch Klimaneutralität zu erreichen, bleiben als Kompensation nur Technologien wie die Abscheidung und unterirdische Speicherung von CO2 (Carbon Capture and Storage, CCS). CCS funktioniert heute aber im Grossmassstab noch nicht und ist zudem energetisch sehr aufwändig.

Insbesondere die Ozeane und die Pflanzen nehmen einen Grossteil der Treibhausgase, die der Mensch erzeugt, wieder auf und wirken als natürliche Senken.

Doch es gibt eine frohe Botschaft: Um den CO2-Gehalt der Atmosphäre zu stabilisieren, was ja das Ziel der Klimapolitik ist, braucht es gar kein «Netto-Null», was den menschlichen Aussstoss angeht. Denn die Natur hilft kräftig mit, CO2, das einmal in die Atmosphäre gelangt× ist, von dort wieder zu entfernen. Insbesondere die Ozeane und die Pflanzen nehmen einen

Grossteil der Treibhausgase, die der Mensch erzeugt, wieder auf und wirken als natürliche Senken – also als Faktoren, die CO2 verschwinden lassen.

Die folgenden Ausführungen orientieren sich am Buch «Unerwünschte Wahrheiten – Was Sie über den Klimawandel wissen sollten» der deutschen Wissenschaftler und Publizisten Fritz Vahrenholt und Sebastian Lüning, sowie an einem Mailwechsel des «Nebelspalters» mit Fritz Vahrenholt.

CO2-Gehalt um 130 ppm gestiegen

Zu Beginn der industriellen Revolution betrug der CO2-Gehalt der Atmosphäre 280 Parts per

Million (ppm, Teile pro Million). Damals war der CO2-Kreislauf im Gleichgewicht. Die CO2Quellen und CO2-Senken der Natur glichen sich aus. Einen wesentlichen menschlichen Einfluss gab es noch nicht.

Insbesondere wegen der Verbrennung von Kohle, Gas und Öl, aber auch wegen industrieller Prozesse wie die Zementherstellung, ist der CO2-Kreislauf aus dem Gleichgewicht geraten. Seit etwa 1850 stösst der Mensch zusätzliches Kohlendixoid aus. Die natürlichen Senken, insbesondere die Ozeane und die Pflanzen, können diese neue CO2-Quelle nicht vollständig kompensieren. Der CO2-Konzentration ist darum bis heute auf rund 410 ppm angestiegen, liegt also um 130 ppm höher als in vorindustriellen Zeiten.

Die zusätzliche Senkenleistung der Natur hängt nur vom erhöhten CO2-Gehalt um 130 ppm der  Atmosphäre ab. Sie bleibt darum unabhängig von weiteren menschlichen Aktivitäten bestehen.

Heute beträgt der menschliche CO2-Ausstoss 36,8 Milliarden Tonnen pro Jahr. Das entspricht im Prinzip einer jährlichen Steigerung um 4,7 ppm in der Atmosphäre. Doch weil sich der CO2-Gehalt insgesamt schon um 130 ppm erhöht hat, ist auch die natürliche Senkenleistung gestiegen: Ozeane, Pflanzen, aber auch das Gestein nehmen einen Teil des zusätzlich ausgestossenen Kohlendioxids wieder auf. Die zusätzliche natürliche Senkenleistung beträgt× derzeit jährlich 2,6 ppm, sodass der CO2-Gehalt der Atmosphäre unter dem Strich nur um 2,1 ppm pro Jahr ansteigt.

Senkenleistung der Natur bleibt bestehen

Zentral ist dabei, dass die zusätzliche Senkenleistung der Natur nur vom erhöhten CO2-Gehalt um 130 ppm der Atmosphäre abhängt. Sie bleibt darum unabhängig von weiteren menschlichen Aktivitäten bestehen. Um den CO2-Gehalt der Atmosphäre nicht weiter ansteigen zu lassen, genügt es also, wenn der Mensch seinen Ausstoss auf 2,6 ppm pro Jahr beschränkt – etwas mehr als die Hälfte des heutigen Ausstosses von 4,7 ppm. Eine Reduktion des Klimagas-Ausstosses um 50 Prozent reicht folglich aus, um den CO2-Gehalt der Atmosphäre zu stabilisieren.

Dass die Senkenleistung der Natur gegenüber vorindustriellen Zeiten erhöht ist, zeigt sich etwa daran, dass Pflanzen heute mehr CO2 aufnehmen und die Welt darum zunehmend grüner wird. Weltweit sind Wiesen und Wälder auf Kosten der Wüsten auf dem Vormarsch. Und die Landwirtschaft erfreut sich an höheren Ernteerträgen (lesen Sie hier und hier).

Noch in seinem vierten Sachstandsbericht von 2007 hat auch der Weltklimarat eine

Emissionsminderung von nur 50 Prozent bis 2050 gefordert. In seinen neueren Modellen geht der Weltklimarat aber davon aus, dass die Senkenleistung von Pflanzen und Meeren in Zukunft stark abnimmt und darum eine höhere CO2-Reduktion nötig ist. Allerdings gibt es in der Realität bis jetzt keine Anzeichen, dass die natürlichen Senken bald gesättigt sind. Die tatsächlich gemessenen Werte der Aufnahme der Ozeane und der Pflanzen legen sogar das Gegenteil nahe.

Polarmeere nehmen viel CO2 auf

Vor allem die oberen Schichten des Meeres in arktischen und antarktischen Gebieten bilden eine gewaltige CO2-Senke. Dort sinken jährlich eine Million Kubikkilometer salzhaltiges Wasser mit mehr als 100 Milliarden Tonnen CO2 in die Tiefe, um erst nach mehreren hundert Jahren in gemässigten Breiten wieder aufzutauchen. Da ist keine Sättigung in Sicht.

Bis zum Ende des 21. Jahrhunderts nimmt das  Südpolarmeer rund 15 Prozent mehr Kohlendioxid× auf als bislang vermutet.

Die Senkenleistung des Südpolarmeers ist dabei offenbar noch grösser als bisher angenommen. Das zeigt eine Studie einer Forschergruppe des Oeschger-Zentrums der Universität Bern, die im April im Fachblatt «Science Advances» erschienen ist. Messungen ergaben einen höheren Salzgehalt des Oberflächenwassers des Südpolarmeers. Damit ist das Wasser schwerer und sinkt schneller in die Tiefe – zusammen mit dem CO2, das es enthält. Bis zum Ende des 21. Jahrhunderts nimmt das Südpolarmeer damit rund 15 Prozent mehr Kohlendioxid auf als bislang vermutet.

Es ist also eine Mär zu behaupten, nur mit einer Absenkung des CO2-Austosses auf «NettoNull» lasse sich das Klima stabilisieren. Die beschwerliche zweite Hälfte der Reduktion kann man sich mit gutem Gewissen sparen.

Der Beitrag erschien zuerst im Schweizer Nebelspalter hier

 




Mediensafari zur Bundestagswahl: wie die Lauterbachisierung das öffentliche Klima kippt

von Alexander Wendt

In diesem Text geht es um die mediale Klimawahlkampfbegleitung, um die ständig weiter fortschreitende Lauterbachisierung der Öffentlichkeit – und die damit verbundene Ermüdung von immer mehr Bürgern.

Als Fritz Kortner 1947 aus dem Exil nach Berlin zurückkehrte, nahm er sich ein Taxi, ließ sich durch die Straßen fahren und betrachtete die Ruinen. Der Fahrer, der ihn erkannte, sagte lange nichts. Und dann: „Sehn’ Se, Herr Kortner – viel hamse nicht verpasst.“

Es gibt mittlerweile nicht wenige, die wünschen sich ungefähr das gleiche – nicht die Ruinen natürlich, aber das gründliche Verpassen – wenn sie an den Wahlkampf denken. Nach dem 26. September wird jeder genügend Leute finden, die ihm ungefähr das gleiche bestätigen wie der Taxifahrer Kortner. Nicht jeder besitzt allerdings die dafür nötige Aufmerksamkeitsdefizitbegabung.

In diesem Text soll es um die mediale Klimawahlkampfbegleitung gehen, um die ständig weiter fortschreitende Lauterbachisierung der Öffentlichkeit – und die damit verbundene Ermüdung von immer mehr Bürgern. Diese Ermüdung wiederum führt zu dem verständlichen, aber möglicherweise auch fatalen Wunsch, die nächsten sechs Wochen gründlich an sich vorbeirauschen zu lassen.

Beginnen wir mit der für den Wahlkampf am Ende entscheidenden Themensetzung, dem, was heute Agendasetting heißt.

Der Spiegel, der kürzlich schon darlegte, wie die Grünen durch russische und chinesische Geheimdienste und rechte Verschwörer daran gehindert werden, sich ganz auf die Vermittlung ihrer Inhalte zu konzentrieren, nimmt sich diesmal den Klimareport des IPCC vor, um ihn wahlkampfkompatibel einzukochen:

Die Frage drängt sich auf, wann die Menschheit das Klima eigentlich zum letzten Mal kontrollierte. In der kleinen Eiszeit? Im mittelalterlichen Klimaoptimum?
Jedenfalls lässt sich das Datum eingrenzen, an dem die Kontrolle verloren ging: laut Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung im Sommer 2019.

Die 38,6 Grad von 2019 übertrafen tatsächlich den alten Juni-Hitzerekord von 1947 um 0,4 Grad. Kurz vor dem IPCC-Bericht war schon die Warnung vor einem sich dramatisch abschwächenden Golfstrom durch fast alle großen Medien gegangen, dessen Abriss, so die Warnung, zu dramatischen Kälteeinbrüchen in Europa führen könnte. Das Szenario stammt aus dem Magazin „Nature Climate Change“ und entstand unter Mitarbeit des Potsdam-Instituts. In den meisten Medien hieß es, diesem Papier zufolge könnte der Golfstrom, wie der WDR titelte, „schneller als erwartet zusammenbrechen“ (was suggeriert, er werde auf jeden Fall zusammenbrechen, nur eben früher als gedacht).

Der Golfstrom stehe vor dem „Kollaps“ (Focus), es drohe ein „Zusammenbruch des Systems“ (Tagesschau).

Die fast wortgleiche Warnung des gleichen Stefan Rahmstorf ging auch 2015 durch die Medien, beispielsweise im „Windkraft-Journal“. Laut Rahmstorf drohten „massive Folgen“; der Golfstrom „könnte sogar vollständig zusammenbrechen“.
Vor „kaskadenartigen Auswirkungen“ einer Golfstromschwäche warnte Greenpeace schon im Jahr 2011. Der gleiche Beitrag kündigte ein eisfreies Polarmeer für den Sommer 2020 an.

Als Referenz diente auch damals vor zehn Jahren wiederum Stefan Rahmstorf.
Ohne Zweifel verringert sich das arktische See-Eis in Vergleich zu den achtziger Jahren und früheren Jahrzehnten. Aber es bedeckte auch im Juli 2021 immer noch gut 7,69 Millionen Quadratkilometer.

Der Autor ist natürlich kein Klimaexperte, auch wenn er ein paar wenige Eckdaten halbwegs kennt. Aber in die einschlägigen Medientexte zur Golfstromschwäche – das kann auch ein Nichtklimawissenschaftler beurteilen – würde auch gehören, dass die Warnung vor dem bevorstehenden Golfstrom-Zusammenbruch nicht neu und überraschend ist, sondern seit mindestens zehn Jahren fast wortgleich zirkuliert, und zwar auffallen häufig mit Berufung auf ein und den selben Wissenschaftler.

Es würde in die Texte gehören, dass es zu diesem Thema ebenfalls seit Jahren eine kontroverse wissenschaftliche Diskussion gibt. Der Ozeanograph Richard Saeger etwa, Lamont Research Professor am Doherty Earth Observatory of Columbia University in Palisades, New York etwa misst dem Anteil der Meeresströmung am Wärmeaustausch zwischen Ozean und Atmosphäre deutlich weniger Bedeutung zu als Rahmstorf. Saeger spricht und schreibt seit mehreren Jahren vom „Gulf Stream Myth“. Der Direktor des Max-Planck-Instituts für Meteorologie Jochen Marotzke weist immer wieder darauf hin, dass die Atlantische Strömung (Atlantic Meridional Overturning Circulation, kurz AMOC), zu der auch der Golfstrom gehört, auch starken natürlichen Schwankungen unterliegt, und dass nicht jede Abschwächung einfach dem „menschengemachten” Anteil am Klimawandel zugeschlagen werden kann. Ähnlich Saeger hält er auch einen plötzlichen Zusammenbruch der Strömung für sehr unwahrscheinlich.

Das alles, wie gesagt, würde in Beiträge zu diesem Thema gehören. So, wie auch die Tatsache, dass sich selbst der IPCC-Bericht insgesamt nicht so katastrophisch liest wie seine Zusammenfassung durch den Spiegel oder Luisa Neubauer oder Umweltministerin Svenja Schulze („der Planet schwebt in Lebensgefahr“). Der IPCC-Text weist unter anderem darauf hin, dass die „Häufigkeit und Intensität von Kälteereignissen abgenommen hat“, was nicht ganz unwichtig ist angesichts der Tatsache, dass weltweit deutlich mehr Menschen an zu großer Kälte als zu großer Hitze sterben. Das IPCC beschreibt außerdem, wie die zunehmende CO2-Konzentration zu einer weltweiten Zunahme der Grünflächen führt.

In einer halbwegs austarierten Darstellung müsste auch genannt werden, wie viele Endzeit- und Zusammenbruchsvorhersagen bisher schon stillschweigend auf dem Prognosefriedhof verscharrt wurden. Etwa im Jahr 2007 die breit durch die Medien geschickte Prophezeihung von US-Wissenschaftlern, die arktische See würde schon 2013 im Sommer eisfrei und ein entscheidender Klima-Kipppunkt erreicht sein.

Der damals führend beteiligte Forscher meinte, seine Prognose sei „schon zu konservativ“. Im Jahr 2009 sagte Al Gore in „fünf bis sieben Jahren“ ein eisfreies Meer hoch im Norden voraus, natürlich auch wieder als finalen und katastrophischen point of no return.
(In der Gegenwart hat sich der Zeitpunkt der eisfreien sommerlichen arktischen See in vielen Prognosen auf 2035 verschoben)

Mittlerweile gibt es auch eine Reihe von Wissenschaftlern – etwa der oben erwähnte Jochen Marotzke oder der langjährige IPCC-Mitautor Hans von Storch – die vor der ständigen Ausrufung immer neuer Kipppunkte, Klimazusammenbrüche und Endzeiten warnen, weil ihnen aufgeht, dass diese Art Daueralarm ihre eigene Debatte zerstört. Die Intelligenteren merken, dass ein ganz anderer Kipppunkt mittlerweile schon erreicht ist: Während eine mediale und politische Gemeinde immer härten Katastrophendröhnung braucht, um die Wirkung bei sich konstant zu halten – ein bekanntes Problem bei bewusstseinsverändernden Substanzen – schaltet ein anderer Teil der Öffentlichkeit ab. Oder ertaubt durch den Sirenenton, der sich in diesem Klimawahlkampf noch einmal erheblich steigert.

Abwägungen und Ambivalenz findet sich im Klimajournalismus nur noch auf einigen Inseln (beispielsweise bei Axel Bojanowski in der Welt und Fritz Vahrenholt bei TE).

Aber so gut wie nichts davon bei öffentlich-rechtlichen Sendeanstalten und Magazinen wie Spiegel und Stern. Wo eine Zusammenfassung der pessimistischsten IPCC-Prognosen und der dramatischsten Untergangsankündigungen nicht mehr reicht, darf dort auch die agitatorische Brechstange zum Einsatz kommen.

Der Stern, dem nach Aussage seiner Chefredaktion über das Klima „nicht mehr neutral“ berichten will, und sich kürzlich selbst dafür geißelte, nicht alarmistisch genug zu sein, veröffentlichte unmittelbar nach der Flutkatastrophe an Ahr und Wupper eine Karte, die zeigen sollte, wie extrem die Niederschlagsmenge (natürlich klimabedingt) in den vergangen Jahren zugenommen hätte. Das würde allen Messergebnissen widersprechen, die laut Deutschem Wetterdienst eine moderate Zunahme der Niederschlagsmenge in Deutschland seit 1890 um 10 Prozent verzeichnen, aber keinen Trend für den Sommer. Die Stern-Karte zeigte auch gar nicht die Niederschlagsmenge. Sondern die Zahl der Messpunkte, von denen es heute deutlich mehr gibt als früher.

 

Erst, als unter anderem der Wissenschaftler, der die Karte zur Verfügung gestellt hatte, auf die Manipulation hinwies, entfernte die Redaktion die Grafik, erzählte aber auch das nächste Märchen: die Karte sei „veraltet“ gewesen.

War sie überhaupt nicht. Sie zeigte nur etwas ganz anderes, als es die Stern-Redakteure ihren Lesern einreden wollten. Möglicherweise findet die stetig abschmelzende und neuerdings RTL zugeschlagene Redaktion ja noch heraus, warum ihre Leser flüchten, obwohl den Deutschen das Klima-Thema doch so wichtig ist. Und obwohl die Redakteure den Lautstärkeregler schon bis zum Anschlag aufreißen.

Zu der Erzählung von den Deutschen, die in großer Mehrheit der klimaapokalyptischen Rhetorik folgen, passen bestimmte Umfragen schlecht. Beispielsweise die von Civey in diesem Klimawahlkampf-August, nach der mehr Bundesbürger Greta Thunberg negativ empfinden als umgekehrt.

Hier zeichnet sich genau das oben Beschriebene ab: Für einen gar nicht so kleinen Teil der Gesellschaft ist der Kipppunkt schon erreicht. Er empfindet den Immerschlimmerismus als Zumutung. Trotzdem setzt sich ungebremst fort, wofür sich der Begriff Lauterbachisierung der öffentlichen Kommunikation geradezu aufdrängt. Die politische Figur Karl Lauterbach verwaltet inzwischen ihren eigenen Prognosefriedhof. Mittlerweile steht fest, dass es die tausenden Toten nicht gibt, die er nach den UEFA-Spielen in britischen Stadien voraussah. Ebenso wenig wie die Sterbewelle nach Aufhebung der britischen Corona-Maßnahmen nach dem 19. Juli. Es überrascht nicht sonderlich, wenn der SPD-Politiker jetzt versucht, vom Corona- ins Klimafach zu wechseln.

 

Auf beiden Gebieten gilt mittlerweile in großen Teilen des Polit- und Mediengeschäfts, dass jeder, der den Apokalyptikern nicht bedingungslos folgt, sich unter Leugner einsortiert findet. Einem Apokalyptiker wie Lauterbach schadet es bei den großen Sendeanstalten bisher nicht, wenn er sich eine eigene Realität zurechtmodelliert. Sein Gerede von „nebenwirkungsfreien Impfungen“ ist falsch, dumm, vor allem sogar kontraproduktiv, wenn es darum geht, Menschen von der Impfung gegen Covid-19 zu überzeugen (der Autor dieses Textes ist kein Impfgegner und selbst geimpft, allerdings Gegner einer Impfpflicht).

Zur immer tieferen Lauterbachisierung der Öffentlichkeit in diesen Wahlkampfwochen gehört auch, dass eine ZDF-Redakteurin sich gegen einen progressiven Presse- und Twittermob wehren muss, der ihr vorwirft, Robert Habeck im Sommerinterview tatsächlich ein paar journalistische Fragen gestellt zu haben, beispielsweisenach den grünen Wahlkampfpannen, statt ihm ausschließlich Stichpunkte zum Klima, zum Klima und Klima zu überreichen.

 

Nachfragen sind nicht mehr selbstverständlich, jedenfalls nicht, wenn der „Brad Pitt der deutschen Politik“ (Süddeutsche Zeitung) gegenüber sitzt. Dann nämlich erfüllen nicht ganz auf Linie gebürstete Fragen der ZDF-Journalistin laut Bernd Ulrich, stellvertretender Chefredakteur der ZEIT und Lenin der bundesdeutschen Klimapolitik, den Tatbestand der „Parteilichkeit für Verdrängung“.

Im Unterschied zu vielen Klima-und Corona-Prognosen geht es in diesem gesellschaftlichen Klimazustandsbericht nicht um eine Zukunft in einigen Jahren und Modelle, sondern eher um Beobachtungen hier und jetzt.

Die Stufe, in der Apokayptik erste Medienschaffendenpflicht wird und auch nachweislich falsche Prognosen und Serie ihren Urhebern nicht schaden, ist schon erreicht. Der nächste Kipppunkt deutet sich schon an, wenn der grüne Umweltminister von Schleswig-Holstein Jan Philipp Albrecht eine Werbefirma bis an den Rand der strafrechtlichen Nötigung zwingen will, den Auftraggeber einer Anti-Grünen Plakatkampagne zu nennen.

Es sind die gleichen Grünen, die eine anonyme klimapolitische Negativ-Kampagne gegen die CDU kürzlich ganz dufte fanden – übrigens auf den Flächen der gleichen Werbefirma.

Die gleichen, die lange kein Problem mit einem ihrer Politiker aus Baerbocks Verband in Brandenburg hatten, der weiß, wer die Nazis sind, damit prahlte, Waffen beschaffen zu können, und vergangene Woche nur deshalb in Schwierigkeiten kam, als er auch noch in Verdacht geriet, sein Nacktfoto an einen Minderjährigen geschickt zu haben.

Ohne diese spezielle Dummheit könnte er sich noch mit anderen aus dem Grünmilieu öffentlich darüber freuen, dass in Baerbocks Wahlkreis systematisch Plakate der politischen Konkurrenz beschmiert werden.

 

So etwas passiert ja nicht nur für die gute, sondern die beste und wichtigste Sache der Welt, die logischerweise keine Ambivalenz und schon gar keine Widerrede duldet.

In welchem Maß das angeschlagene, aber noch halbwegs intakte gesellschaftliche Klima außer Kontrolle gerät, wenn die Grünen erst regieren – beziehungsweise, wie es gerade unter Kontrolle gerät – das kann sich jeder auch ohne Expertenstatus ausmalen.

Es steht der nächste Kipppunkt unmittelbar bevor.

Der Beitrag erschien zuerst bei TE hier




Die Welt ist verloren – der neue IPCC Bericht sagt das!

von Michael Limburg

Am Montag dem 9.8.21 veröffentlichte das Intergovernmental Panel on Climate Change (IPCC), von den deutschen Medien zum „Weltklimarat“ hoch geschrieben, seinen sechsten Sachstandsbericht (AR VI) über den Zustand des Weltklimas. Letzteres gibt es zwar praktisch und auch definitorisch nicht, aber umso besser lässt sich darüber forschen und schreiben. Und es ist auch nicht der ganze Bericht, sondern nur der der Arbeitsgruppe 1. Das sind diejenigen Wissenschaftler, die sich mit den naturwissenschaftlichen Grundlagen des Klimawandels beschäftigen. Es sollen insgesamt 234 Männlein und Weiblein sein, wie die Berliner Zeitung ausgezählt hat. Und das auch noch aus 65 Ländern. Diverse waren wohl diesmal noch nicht dabei, jedenfalls werden keine als solche genannt. Was sie aber der Welt mitzuteilen haben ist wirklich dramatisch, zum Fürchten dramatisch. Doch das ist aber eigentlich auch nichts Neues, denn bisher war jeder IPCC Bericht dramatischer als der jeweils vorhergehende, wohl auch deshalb, weil es nur dafür Geld, Forschungsaufträge, Doktorandenstellen, etc. etc. gibt, obwohl die Daten, die dem IPCC ebenso wie allen, die es interessiert, weltweit zur Verfügung stehen, diese dramatische Entwicklung nicht hergeben. Aber dazu später etwas mehr.

Fakt ist, das IPCC und die ihm zuarbeitenden Stellen können bzw. dürfen gar nicht anders, denn im Gründungs-Mandat des IPCC stand (Hervorhebungen vom Autor), seine Aufgabe wäre es auf umfassende, objektiver offener und transparenter Basis die wissenschaftlichen, technischen und sozio-ökonomischen Informationen abzuschätzen, die wichtig seien, das Risiko des vom Menschen verursachten Klimawandels zu verstehen, ebenso wie seine (des vom Menschen verursachten Klimawandels… und nur den) möglichen Einflüsse, sowie Optionen zu finden für Anpassung und Minderung.

Das IPCC hat also ausschließlich die Aufgabe, den zur Gründung bereits als Risiko eingeschätzten Einfluss des Menschen auf den Klimawandel zu untersuchen, um ihn zu verstehen. Und damit auch ja kein Zweifel an dieser wissenschaftlich völlig unzulässigen Einengung auf Risiko und Einfluss des Menschen entsteht, schob es noch im IPCC-Glossar die Definition nach, was allein, nach juristischen Kriterien, unter dem Begriff „Klimawandel“ zu verstehen ist: „Ein Klimawandel, der direkt oder indirekt auf menschliches Handeln zurückgeführt wird und der die Zusammensetzung der globalen Atmosphäre verändert und der zusätzlich zur natürlichen Klimavariabilität auftritt, die über vergleichbare Zeiträume beobachtet wird.“ Natürlicher Klimawandel, der die Welt seit dreieinhalb Milliarden Jahren begleitet, ist damit eindeutig ausgeschlossen. Man nennt ihn deshalb auch anders, nämlich Klima-Variabilität oder Climate Variations.

Und nach dieser klaren Vorgabe wird seit 1988, dem Gründungsjahr, gehandelt, auch wenn sie seit dem Oktober 2017 von der offiziellen Webseite des IPCC verschwunden ist. Sie ist in der Strenge auch nicht mehr nötig, die Rahmen (Frames) sind seit nunmehr 33 Jahren gesetzt. Und entsprechend werden die Forschungsarbeiten vergeben, die genehmen gesammelt und ausgewertet, die entwarnenden, beruhigenden jedoch ausgesondert oder gar nicht erst zugelassen.

Und es kommt noch eines hinzu. Während die vollen Berichte normalerweise viele hundert Seiten umfassen, und sehr wissenschaftlich formuliert daherkommt, wird fast immer nur aus der sogenannten Summary for Policy Makers (SPM) berichtet und zitiert. So auch hier. Die umfasst nämlich nur rund 40 Seiten, soll das Wesentliche aus dem Full Report zeigen, ist aber – im Gegensatz zum ersteren – zu hundert Prozent, mit jedem Wort, jedem Komma, jeder Wendung- mit den beteiligten Regierungen abgestimmt, bzw. von diesen genehmigt.

Schaut man nun in diese Zusammenfassung, und sämtliche Medien, Parteien und Regierungen tun das, dann kann einem Angst und Bange werden. Und das soll es auch. Denn obwohl die Temperaturentwicklung (Achtung: Man spricht immer nur vom rein statistischen Wert der sog. Mitteltemperatur der bodennahen Atmosphäre bzw. ihrer Änderung bezogen auf einen ebenso rein statistischen aber völlig unbekannten Referenzwert im 19. Jahrhundert, in der Pariser Klimaübereinkunft sogar vom 18. Jahrhundert) der letzten 6 Jahre defacto zum Stillstand gekommen ist, wird behauptet es würde immer wärmer und gefährlicher. Und damit das auch geglaubt wird, macht man die Vergangenheit einfach kühler. Wie das, werden Sie fragen. Ganz einfach! Man nutzt entsprechend konstruierte Computermodelle, füttert sie mit den richtigen Vorgaben und schwupp die wupp ist die gesamte Vergangenheit bis ins Jahr Null kälter. Weg ist die weltweit bestens dokumentierte mittelalterliche Warmzeit, weg ist die Warmzeit um das Jahr Null, die erst von der um 300 beginnenden Kaltzeit beendet wurde, deren schlimme Auswirkungen die Völkerwanderung bewirkte. Nun schlängelt sich die „Temperatur“ mit leicht fallender Tendenz in einem extrem engen ± 0,35 ° Korridor (man sollte wissen, dass sich die Mitteltemperaturen der Klimazonen unserer Erde um satte 65 °C voneinander unterscheiden, die Unsicherheit dieser SPM Angabe liegt also bei sagenhaften ± 0,5 %) immer weiter nach unten, bis sie plötzlich ab 1850 steil ansteigt. Und wie stark weiß man auch sehr genau, nämlich um + 1,07 °.

1,07 ° Wow!

Mir als studiertem Messtechniker (im Nebenfach) dreht sich jedes Mal der Magen um, wenn ich sehe, wie diese offensichtlich messtechnischen Laien, die Mathematik und ihre spärlichen Messdaten foltern, um zu dieser völlig sinnfreien Aussage zu kommen. Aber damit erleben wir die Wiedergeburt des Hockeyschlägers formulierte es Fritz Vahrenholt. Der Hockeyschläger – so genannt, weil diese Kurve die Form eines Hockeyschlägers hat- war der rauchende Colt des dritten Sachstandberichtes 2001 und entpuppte sich im Nachhinein als übler Betrug des Klimaforschers Michael Mann. Heute feiert er fröhliche Urständ.

Änderungen der globalen Mitteltemperatur gem. SPM Figure SPM.1 auf Seite 7

„Hockeyschläger“ Kurve aus dem dritten Bericht TAT von 2001 der kurze Zeit später von McIntyre, McKittrick als Betrug des Michael Mann entlarvt wurde. (z.B. hier und hier)

„Übergenaues Rechnen ist das Kennzeichen schlechter Mathematiker“, pflegt der Fürst der Mathematiker C.F. Gauss über solche Leute zu sagen, heute finden sie alle Lohn und Brot als Klimaforscher.

Und weil Computer so unendlich geduldig sind, kann man mit ihnen noch viel mehr anstellen. Seit Jahren wird von interessierter Stelle behauptet die Zahl der „Extremwetter“ würde wegen des Klimawandels, ständig zunehmen, und, weil die Daten das ganze Gegenteil zeigten, behauptet man sie würden immer stärker werden. Doch auch das zeigen die realen Daten der Vergangenheit nicht, und noch viel besser, obwohl die Menschheit in den letzten 50 bis 60 Jahren gewaltig an Zahl zugelegt hat, sank die Zahl der klimabedingten Todesfälle um mehr als 99 %, auf ein nie da gewesenes Tief. Das durfte daher nicht so stehen bleiben, und man behauptet nunmehr auch einzelne Unwetter dem (menschgemachten versteht sich) Klimawandel zuordnen zu können. Wie Fritz Vahrenholt schrieb: “Jetzt heißt es, dass es Hinweise auf einen menschlichen Einfluss gibt auf  beobachtete Veränderungen bei Extremen wie Hitzewellen, Starkniederschlägen, Dürren und tropischen Wirbelstürmen. Hierdurch wird es jetzt möglich, jedes extreme Wetterereignis in einen Zusammenhang mit CO2-Emissionen zu bringen. Das ist viel wirkungsvoller, um politischen Druck zu erzeugen als durch die doch relativ wenig Angst erregende Temperaturentwicklung.“

So macht man das.

Doch damit noch immer nicht genug. Es muss ja auch genügend Angst vor Zukunft erzeugt werden. Und wie macht man das? Richtig, wieder mit Computermodellen. Und die sind alle so konstruiert, dass ihr Treibstoff das CO2 ist. Je mehr desto heißer.

Während in den vorherigen Berichten der Sonne wenigstens noch ein winziger Einfluss zugestanden wurde, wurde der jetzt rigoros auf Null gesetzt. Diesen riesigen heißen gelben Ball am Himmel gibt es einfach nicht mehr. Und dies obwohl bspw. in Europa die Zahl der Sonnentage seit 2004 drastisch zugenommen haben. Und die Wolkenbedeckung entsprechend ab. In normaler Physik wäre das eine glasklare Ursache, beim IPCC ist das nicht der Rede wert. Schlimmer, sie wird als Ursache ausgelassen. Es muss das CO2 sein. Stattdessen gibt man einem Katastrophen-Szenario genannt RCP 8.5 breiten Raum. Es ist zwar absurd, hat aber den Vorzug, dass es sehr dramatische Ergebnisse zeigt. So steigt drin der Meeresspiegel bis 2100 um einen glatten Meter, bis 2300 – ja, so lang rechnen die – sogar um 7 Meter. Leider wäre dann Genf, wo das IPCC sitzt, dann immer noch gut über Wasser, würde also nicht überflutet, aber wenigstens hätten die Kölner es nicht mehr so weit bis zum Nordseestrand.

Kurzum: Schon wieder beglückt man uns mit bestellter Wissenschaft, deren Ergebnisse, soweit bisher bekannt (SPM), das Papier nicht wert ist, auf dem sie gedruckt sind.

Der Beitrag erschien zuerst bei Epochtimes hier




Thoriumreaktor: Wenn die Politik die Nutzung einer Naturkraft verbieten will

Wie lange dauert es, bis ein Reaktor steht? Ruprecht im TE-Podcast: Man braucht dann auch mit allen Genehmigungen bis hin zur Serienproduktion bestimmt zehn Jahre. Man kann das allerdings auch alles beschleunigen, wenn man jetzt wirklich will. Also ähnlich wie beim Corona-Impfstoff, wo man plötzlich alles möglich gemacht hat.
Der Beitrag erschien zuerst bei TE hier