Wer die Physik nicht kennt, tappt in die Falle! Wie Windmühlen zur politischen Falle wurden

von Andrea Andromidas, April 2021

Deutschland war ein Musterland industrieller Entwicklung. Deutschland war auch ein Beispiel dafür, dass der über Generationen erkämpfte Wohlstand in keinem Widerspruch zum Umweltschutz steht. Die Wissenschaftstradition, die das ermöglichte, geht zurück bis ins 17. Jahrhundert und länger.

Wie konnte es passieren, dass das Land von Albert Einstein und Max Planck der ganzen Welt demonstriert, dass es jeden physikalischen Verstand verloren hat? Wir schafften den Transrapid ab, wir schaffen die Kernenergie ab, die Automobilproduktion … wo soll dieser Selbstzerstörungsprozess enden? Neuerdings erheben wir selbst Anspruch auf Landmasse im Ausland, um dort „grünen Wasserstoff“ produzieren zu können. Der klinische Ausdruck für das, was die politische Klasse als „Große Transformation“ plant, muß erst noch erfunden werden, weil die Geschichte kein Beispiel für diesen gigantischen Unsinn hat.

Als Albert Einstein im Jahr 1905 seine berühmte Formel (E=mc2) veröffentlichte, verstanden die klügsten Köpfe der Welt sofort,  was das für die zukünftige Entwicklung der Energietechnik bedeuten würde. Die sich anschließenden revolutionären Entdeckungen eröffneten ein gewaltiges Potential, das über Dampfmaschine und Verbrennungsmotor weit hinausging. Die fundamentale Äquivalenz von Materie und Energie, wie sie in den Bereichen der Kernspaltung, der Kernfusion und der Materie-Antimaterie-Reaktionen zum Ausdruck gelangt, eröffnet in der Tat unbegrenzte Möglichkeiten. Jeder Industriemanager wußte früher, dass die Beherrschung immer höherer Leistungs- und Energiedichten im Produktionsbereich ein unverzichtbares Maß für die steigende Produktivität einer Volkswirtschaft und den wachsenden Lebensstandard seiner Bevölkerung ist.

Und jetzt?

Im 21. Jahrhundert erklärt man in Deutschland, dass Dampfmaschine, Verbrennungsmotor und Kernspaltung (noch dazu aus ganz verschiedenen Gründen!) zu gefährlich seien und geht zurück zu Leistungs- und Energiedichten des Mittelalters! Es soll hier nicht bezweifelt werden, dass Windmühlen in irgendwelchen abgelegenen Gegenden zeitweise vorteilhaft sein können. Auch der Nutzen einer begrenzten Anzahl von Solarpaneelen in abgelegenen Dörfern oder auf irgendwelchen Dächern kann nicht schädlich sein.

Die Politik der deutschen Energiewende jedoch verfolgt das extreme Ziel, auf die wirtschaftliche Anwendung und Beherrschung von Techniken höherer Leistungsdichten zu verzichten – und rennt damit  aus Dummheit in den Ruin.

Die Gegner der Industriepolitik haben seit  mindestens 50 Jahren auf diese physikalische Falle gesetzt. Sie scheinen – im Gegensatz zu der Mehrheit naiver Industrievertreter  und einer  naturwissenschaftlich weitgehend ungebildeten Bevölkerung – ziemlich genau zu wissen, wie man die Unwissenden Schritt für Schritt dazu bringt, sich selbst zu zerstören.

Es folgen drei Beispiele, die zeigen, wie bewußt diese Strategie eingesetzt wird:

Beispiel 1: Die „flächenfressende Energiestrategie“ der Agora

Die von finanzstarken Geldgebern getragene Institution mit dem Namen „Agora“ beschreibt freimütig, in  welche Falle das Projekt  „Energiewende“ führt. Man kann das in einem Strategiepapier aus dem Jahr 2017 mit dem Titel „ Energiewende und Dezentralität“ nachlesen. Die Autoren lassen den Leser darin wissen, daß die „physikalischen Gegebenheiten“ sogenannter erneuerbarer Technik, sobald man sie als tragende Technik akzeptiert hat, für eine entwickelte Industriewirtschaft wie Sand im Getriebe sind und zwangsläufig das ganze System verändern werden.

Der erste wesentliche Treiber ist die Physik, da der massive Ausbau von Wind- und Solaranlagen aufgrund der Physik der Wind- und Solarressourcen zu einer verteilteren Erzeugungsstruktur führt…“ ( Energy from space . Wegen der zu geringen Leistungsdichte muß der Strom auf den dafür notwendigen Flächen umständlich eingesammelt werden.)

Der zweite wesentliche Treiber ist die daraus resultierende Entwicklung der Akteursstruktur, da eine verteiltere Erzeugungsstruktur auch mit sich bringt, dass die Zahl der Stromproduzenten um ein Vielfaches steigt und bereits gestiegen ist.

Während es noch in den 1990-ern lediglich eine dreistellige Anzahl von Kraftwerken gab, die ganz Deutschland mit Strom beliefert haben, gibt es heute bereits mehr als 1,5 Millionen Stromerzeuger.

Der dritte wesentliche Treiber in Richtung Dezentralität sind technologische Entwicklungen auf der Stromnachfrageseite ( Stromspeicher, Elektromobilität, Wärmepumpen) sowie die digitale Revolution, die eine Vernetzung und Einbindung dezentraler Anlagen … ermöglichen … Diese Treiber sind weitestgehend unabhängig von politischer Regulierung und verschwinden insofern nicht mehr – sie werden vielmehr zwangsläufig dafür sorgen, dass Dezentralität dauerhaft ein neues Strukturmerkmal der Stromwirtschaft bleibt.

Mit der Transformation des von fossilen und nuklearen Energieträgern beherrschten Energiesystems hin zu einem regenerativen wird ein in vielen Dimensionen fundamentaler struktureller Wandel ausgelöst.

Diejenigen, denen die Zusammenhänge zwischen Physik und Wirtschaft nicht bekannt sind, werden jetzt naiv fragen: na und? Darüber reden doch alle, was ist daran so schlecht?

Antwort: Es ist der ungeheure wirtschaftliche Aufwand, der durch die genannten „Treiber“ zwangsläufig entstehen muß, und der mit wachsendem Ausbau der flächenfressenden, wetterabhängigen Technik zur unerträglichen Belastung und Verteuerung des gesamten wirtschaftlichen Prozesses führt. Das permanente Gerede von Effektivität dient lediglich der Täuschung, denn in Wirklichkeit wird eine über Jahrhunderte entstandene Produktivität auf diese Weise systematisch zerstört.

Wetterabhängige Technik, digitale Vernetzung, immer kleinteiligerer Strukturen und ein zunehmend chaotischer Marktmechanismus benötigen außerdem ein krebsartig anwachsendes Management, das mit dem Ausdruck „Sand im Getriebe“ nur unzureichend charakterisiert ist. Im Vergleich mit dem vorher vorhandenen, bestens organisierten Energie-System, welches wetterunabhängig für sichere, bezahlbare und umweltfreundliche Stromproduktion sorgte, ist es nicht übertrieben, diese Methode als eine Waffe gegen die Industriegesellschaft zu bezeichnen.

Der erschreckendste Aspekt wird gerade in der von CDU-Wirtschaftsminister Altmaier beschrittenen Wasserstoff-Strategie deutlich: Deutschland hat nicht genug Fläche, um den Bedarf an sogenanntem grünen Wasserstoff überhaupt zu produzieren! Sollen wir dadurch abermals zu einer Politik der territorialen Expansion getrieben werden?

Beispiel 2: 1970er Jahre – Amery Lovins & Co.

Ein fundamentaler Strukturwandel wurde seit den Anfängen des Club of Rome, also in den 70er Jahren  geplant. Es gibt dazu ein sehr lesenswertes Dokument von Dr.Penczynski (verstorben 2017) aus dem Jahr 1978, das im Auftrag der Siemens AG entstand. Das kleine Buch trägt die Überschrift: „Welche Energiestrategie können wir wählen“ und beschreibt eine Diskussion , die im Jahr 1977 am IIASA-Institut stattfand (Internationales Institut für Angewandte Systemanalyse in Laxenburg bei Wien) 2.

Daran nahmen neben Dr. Penczynski teil:  Prof. Häfele, der damalige Vizechef des IIASA, ehemals Leiter des Projekts „Schneller Brüter“ in Kalkar von 1960 bis 1972; der bekannte Dennis Meadows, Mitautor der Club of Rome- Studie „Limits to Growth“ („Grenzen des Wachstums“) und Amery Lovins, bis heute einer der  radikalsten Ökologen. Lovins gründete 1982 das Rocky Mountain Institute und spielte später auch eine Rolle beim Wuppertal-Institut für Klima, Umwelt und Technologie. Die Diskussionsrunde wurde inszeniert, um den bereits weit fortgeschrittenen Weg zu moderner Kerntechnologie infrage zu stellen.

Das Thema lautete: Welche Energiestrategie sollen wir wählen?

  1. Den Weg der „soft“ Energie (sogenannte erneuerbare Techniken) oder
  2. Den Weg der „harten“ Energie (fossile Brennstoffe und Kerntechnik)?

Dr. Penczynski erkannte in aller Klarheit die wirkliche Absicht hinter dieser als wissenschaftlich verbrämten Debatte. Er verstand die  Absicht der Leute des Club of Rome, besonders die von Lovins, die sogenannten Erneuerbaren als politische Waffe mit dem Ziel eines Systemwechsels einzusetzen.

Dr. Penczynski schrieb: „Das Gedankengut des Soft-Energieweges entspringt dem soziopolitischen Bereich, die Einbeziehung des Energiesektors als wichtigen Teil unserer Gesellschaft soll diesen Weg des sozialen Wandels technologisch vorbereiten und gangbar machen helfen. Der Bewertungsschwerpunkt der Energietechnologien liegt deshalb bei nicht-wirtschaftlichen Faktoren. Die Stoßrichtung ist eindeutig gegen die Kernenergie als den Inbegriff einer zentralisierten Energie-,Wirtschafts-, Bevölkerungs- und Machtstruktur gerichtet …

Unter technisch-wirtschaftlichen Aspekten erscheint das Konzept des soft energy path nicht lebensfähig. Das technische Potential der Soft-Technologien ist nicht in der Lage, mit der quantitativen und qualitativen Entwicklung der Menschheit Schritt zu halten und den voraussehbaren Energiebedarf bei einer katastrophenfreien Entwicklung zu decken. Hier muß erst der von den Soft-Exponenten angestrebte tiefgreifende soziale Wandel stattfinden, so dass drastische Änderungen von Wertvorstellungen angestrebt werden. Dazu müssen der Übergang zu ländlichen Siedlungsstrukturen, starke Reduktion des Bevölkerungswachstums und Einbußen im materiellen Wohlstand von dem Großteil der Bevölkerung freiwillig akzeptiert werden.

Die Soft-Technologien sind die kapitalintensivsten aller Alternativen zu Öl und Gas. Der Soft-Pfad fordert für die Industrienationen so schnell wie möglich ein energetisches Nullwachstum“.

Wie von Dr. Penczinsky in aller Klarheit überliefert, hatten diese Leute schon damals die Gesellschaftsveränderung im Sinne der „Großen Transformation“ anvisiert und den Marsch durch die Institutionen angetreten.

Beispiel 3: Die radikalen Grünen vom DAVOS FORUM

Es ist durchaus bemerkenswert, dass in dem kürzlich erschienenen Buch „Covid 19: The Great Reset“ die systemverändernde Wirkung mittelalterlicher Energiedichte erneut ganz deutlich betont wird. Die Finanz-Oligarchie, die sich seit Neuestem in aller Öffentlichkeit als der eigentliche Initiator fanatischer Dekarbonisierung zu erkennen gibt, war seit den Gründungstagen des Club of Rome der wirkliche Nutznießer grüner Ideologie. Nicht erst seit heute bevorzugen ihre Vertreter eine Gesellschaft, in welcher eine kleine Schicht reicher Priester regiert, die Masse der Menschen aber dumm bleibt, Verzicht übt und zahlenmäßig (endlich) wieder abnimmt. Deswegen verwundert das folgende Zitat auf Seite 142 (englische Ausgabe) keineswegs:

Selbst beispiellose und drakonische Lockdowns, bei denen 1/3 der Weltbevölkerung mehr als einen Monat lang in ihren Häusern eingeschlossen war, erwiesen sich in keinster Weise als brauchbare Dekarbonisierungsstrategie, da die Weltwirtschaft dennoch weiterhin große Mengen an Kohlendioxid emittierte. Wie könnte eine solche Strategie also aussehen? Die enorme Größe und Tragweite der Herausforderung kann nur durch eine Kombination aus zwei Faktoren bewältigt werden: Erstens: Eine radikale und tiefgreifende Systemveränderung der Art und Weise, wie wir die Energie erzeugen, die wir zum Leben benötigen, und zweitens: Strukturelle Veränderungen in unserem Konsumverhalten.

Wollen wir wirklich weiterhin den Gegnern der Industriegesellschaft und unseres Wohlstandes die Zerstörung unserer Zukunft überlassen? Kehren wir lieber zurück zur Vernunft, werfen wir die von außen verpassten ideologischen Scheuklappen ab und lassen die Naturgesetze (Physik) walten! Die Zukunft gehört dem Fortschritt, d.h. neben den effektiven fossilen Brennstoffen der Kernenergie und Kernfusion!

Mehr zum Thema:

https://www.bueso.de/stoppt-gruenen-feudalismus

 https://www.bueso.de/deutschlands-rolle-beim-aufbau-weltwirtschaft

 https://www.bueso.de/raumfahrt

  • AGORA, 2012 gegründet, bezeichnet sich als Denkfabrik und ist mit den verschiedensten deutschen Institutionen verbunden. Sie wird finanziert von der Mercator Stiftung und der von internationalen Geldgebern getragenen European Climate Foundation. Die ECF finanzierte nach eigenen Angaben in der Vergangenheit auch Aktionen von BUND, KlimaAllianz, Deutsche Umwelthilfe und Campact eV. gegen konventionelle Kohlekraftwerke in Deutschland. Bezüglich des Engagements heißt es: „In der Strategie der ECF spielt Deutschland als größtes und wirtschaftlich stärkstes EU-Land eine zentrale Rolle.“
  • Peter Penczynski, „Welche Energiestrategie können wir wählen?“, 2. überarbeitete Auflage 1978; erschienen bei Siemens-Aktiengesellschaft, Abteilung Verlag



Einfluss von Ozeanzyklen auf die aktuelle Warmphase in Deutschland

von Dr. Ludger Laurenz

Zum Mitnehmen:

  • Das hohe Temperaturniveau der letzten 20 Jahre in Deutschland mit außergewöhnlich viel Sommer-Sonnenschein kann primär auf die aktuelle Warmphase der Atlantischen Multidekadischen Oszillation AMO und die Ausbreitung des „Western Hemisphere Warm Pool“ WHWP zurückgeführt werden.                                                    
  • In den nächsten 10 Jahren ist zyklusbedingt mit Sinken der Temperatur des Oberflächenwassers im Atlantik, in der Karibik und dem östlichen tropischen Pazifik zu rechnen. Dadurch werden in Deutschland Temperaturniveau und Sonnenscheindauer sehr wahrscheinlich wieder zurückgehen.
  • Seit 2008 auftretende Frühjahrstrockenheit beruht auf einer ca. 15-jährigen niederschlagsarmen Zyklusphase, die sich während des ca. 65-jährigen AMO-Zyklus regelmäßig wiederholt. In den nächsten Jahren ist allmählich mit Normalisierung der Frühjahrsniederschlagsaktivität zu rechnen.
  • Es ist verwunderlich, dass der Deutsche Wetterdienst im Klimatologischen Rückblick auf 2022 kein Wort über den Einfluss der Ozeanzyklen auf Wetter und Klima in Deutschland verliert, das hohe Temperaturniveau der letzten Jahrzehnte mit anthropogenem Einfluss begründet und politische Maßnahmen gegen den Klimawandel fordert.

Seit fünf Jahren suche ich nach natürlichen Zyklen in historischen Klimadaten. Meine Motivation beruht auf dem Misstrauen gegenüber der Behauptung, die aktuelle Warmphase sei allein oder primär anthropogen verursacht, wie in Klimatologischer Rückblick auf 2022 . Die Ergebnisse meiner bisherigen Recherche sind in einer Publikation (Solarer Einfluss auf den Regen in Europa , 2019) und mehreren Beiträgen in klimanachrichten.de dokumentiert. Die Publikation wäre ohne erhebliche Unterstützung durch Sebastian Lüning und Horst Lüdecke nie entstanden.

Immer wieder bin ich bin bei der Suche nach natürlichem Einfluss auf Wetter und Klima auf die Variation der Sonnenaktivität als Hauptverursacher gestoßen, sowohl bei der Suche mit Hilfe von google scholar als auch bei der Suche in historischen Klimadatenreihen, die im Internet reichlich verfügbar sind.

 

Methode zur Sichtbarmachung von solarem Einfluss: Übereinanderstapeln gleicher Zyklusphasen mit Zykluslängen von ca. 11, 22 und 65 Jahren

Bei der Suche nach solarem Einfluss in historischen Klimadaten hat mir die Publikation von  S. C. Chapman et al. 2021 sehr geholfen. Er hat erstmals die Startjahre der ca. 22-jährigen Hale-Zyklen der Sonne aufgrund sonnenphysikalischer Messwerte definiert und benannt. Mit Hilfe dieser Startjahre ist es eine Leichtes, solaren Einfluss in historischen Wetterdatenreihen nachzuweisen.

Ein Beispiel liefert die Niederschlagssumme der 2. Jahreshälfte der Niederlande in der folgenden Abbildung. In dieser Darstellung sind fünf gleiche ca. 22-jährige Zyklusphasen aus dem Zeitraum seit 1926 übereinandergestapelt.

 Abbildung 1: Niederschlagssumme im zweiten Halbjahr in den Niederlanden in fünf Hale-Zyklen der Sonne

 

Das Absinken der Niederschlagssumme von Zyklusjahr 7 zu 8 kann kein Zufall sein, sondern nur über den sich ca. alle 22 Jahre wiederholenden Einfluss der Sonnenaktivität auf die Erdatmosphäre erklärt werden. Der solare Einfluss ist in den anderen Beneluxstaaten und Deutschland ähnlich. Zahlreiche Nachweise von solarem Einfluss, untermauert durch Literaturhinweise, sind in klimanachrichten.de dokumentiert. Frau S. Veretenenko 2022 liefert eine plausible Erklärung für den Einfluss variierender Sonnenaktivität auf die Erdatmosphäre und Niederschläge.

 

Neues Projekt: Wie Karibik und Atlantik uns periodisch einheizen und schöne Sommer bescheren

Ist die aktuelle Warmphase in Deutschland mit 1,7 Grad höherer Temperatur gegenüber 1881 anthropogen verursacht oder das Resultat natürlicher Zyklen, oder beides? Um die Antwort auf diese Frage möglichst anschaulich darstellen zu können, wird im ersten Schritt der Temperaturtrend der Ozeanoberfläche dargestellt, die die Luft erwärmt, bevor sie mit Südwestwind nach Europa getragen wird. Dazu werden zwei Datensätze genutzt, die von der Amerikanischen Wetterbehörde NOAA bereitgestellt werden, die Atlantische Multidekadische Oszillation AMO und die Oszillation der Ausdehnung des „Western Hemisphere Warm Pool“ WHWP,  Monthly Atmospheric and Ocean Time Series . Die Gebiete, aus denen die Daten stammen, sind in der folgenden Abbildung erkennbar.

Abbildung 2: Flächenbezug von AMO und WHWP

 

Die AMO beeinflusst das Klima auf der gesamten Nordhalbkugel von der Arktis bis in die Sahelzone oder Indien s. google scholar  und Europa, s. Lüdecke et al. 2020.  Sie hat eine Periodenlänge von gut 60 Jahren. Aktuell befindet die AMO am Ende einer Warmphase. Bei der AMO handelt es sich um eine natürliche Temperaturschwankung, die schon seit mehreren Jahrhunderten nachweisbar ist. Die Schwankungsbreite der AMO mit ca. 0,5 Grad bewegt sich auch aktuell im Rahmen der natürlichen Variabilität.

Die Ausdehnung des Warmwasserpools der westlichen Hemisphäre (Western Hemisphere Warm Pool, WHWP), in dem das Wasser im Sommer wärmer als 28,5 °C ist, erstreckt sich vom östlichen tropischen Nordpazifik bis zum Golf von Mexiko und der Karibik und überschneidet sich in seiner Spitze mit dem tropischen Nordatlantik. Den WHWP habe ich einbezogen, um den zyklischen Einfluss der zweitwärmsten „Badewanne“ der Erde mit einem Sommertemperaturniveau von über 28,5 °C auf das europäische Temperaturniveau überprüfen zu können. Die Variabilität des WHWP beeinflusst die Hurricane Aktivität und das Temperaturniveau weiter Gebiete der Nordhalbkugel (Literatur).

Für das Gebiet der AMO und des WHWP wurde schon 2015 eine Schlüsselrolle für den langfristigen globalen Erwärmungstrend und die atmosphärische Zirkulation mit einer ca. 65-jährigen Variabilitätskomponente festgestellt.

Um den Einfluss von AMO und WHWP auf den Temperaturtrend möglichst anschaulich darstellen zu können, werden zunächst wie schon in dem Beispiel in Abbildung 1 Zeitabschnitte gleicher Zyklusphasen übereinandergestapelt. Als Zykluslänge für die genannten Oszillationen wird versuchsweise der Zeitraum von drei Hale-Zyklen der Sonne, entsprechend ca. 65 Jahre gewählt. Aus jüngsten Veröffentlichungen verdichten sich die Hinweise auf eine Verknüpfung zwischen dem auf der Sonne nachweisbaren ca. 60-jährigen Zyklus und den ca. 60-jährigen Zyklen wie zum Beispiel in der AMO, WHWP oder auch PDO. (Scafetta 2020,  Veretenko 2021, Olilla 2022). Der Zeitraum von ca. 65 Jahren ergibt sich, wenn jeweils drei Hale-Zyklen mit den von Chapman genannten Startjahren hintereinander gereiht werden, s. Tabelle 1.

 

Tabelle 1: Hale-Zyklen der Sonne und ca. 65-jähriger AMO-Zyklus seit 1837, in Klammern Dauer der Zyklen in Jahren. Festlegung des ersten Jahres der Hale-Zyklen in Anlehnung an S. C. Chapman et al. 2021

 

Der Trend der AMO ist in den letzten drei Zyklen stabil

Mit Hilfe der so ermittelten Phasenlänge lassen sich ca. 65-jährige Zeitabschnitte der AMO wie in der folgenden Abbildung festlegen, in denen sich der Zyklus wiederholt.

Abbildung 3: Trend der AMO seit 1870 mit Startjahren der ca. 65-jährigen AMO-Zyklen

 

Werden die drei ca. 65-jährigen Zeitabschnitte der AMO übereinandergestapelt, wird sichtbar, wie sich der Lauf der AMO von Zyklus zu Zyklus wiederholt.

Abbildung 4: Trend der AMO im ca. 65-jährigen AMO-Zyklus seit 1858

 

Die drei Zyklen folgen einem gemeinsamen Trend. Aktuell (graue Säule, 2022) befindet sich die AMO am Ende der letzten Warmphase und noch auf sehr hohem Niveau gegenüber den beiden vorlaufenden Zyklen (blau und grün). In den nächsten Jahren ist mit mehr oder wenige starkem Sinken des AMO-Index und Abkühlung des nördlichen Atlantiks zu rechnen.

 

Flächenausdehnung des WHWP variiert zyklisch und im Gleichschritt mit der AMO

Zeitgleich und deckungsgleich zur AMO schwankt die Flächenausdehnung des WHWP, s. folgende Abbildung. Hier ist der AMO-Trend aus der vorherigen Abbildung mit blau gestrichelter Linie übertragen.

Abbildung 5: Trend der WHWP seit 1950 im ca. 65-jährigen AMO-Zyklus

 

AMO und WHWP scheinen von demselben äußeren Antrieb synchronisiert zu werden. Ob tatsächlich die periodisch schwankende Sonnenaktivität die treibende Kraft ist, wird sicher in den nächsten Jahren geklärt werden können.

Während der Trend der Wassertemperatur bei der AMO in den drei Zyklen annähernd gleich ist (s. Abb. 4), unterscheidet sich die Flächenausdehnung des WHWP zwischen dem aktuellen (rot) und vorhergehenden Zyklus (grün) in der Mitte des 3. Hale-Zyklus (gelbes Rechteck) um ca. 4 Mio. km², mehr als der zehnfachen Fläche von Deutschland. Dieser Unterschied dürfte zumindest einen Teil des außergewöhnlich hohen Temperaturniveaus der letzten 20 Jahre in Deutschland erklären.

Da AMO und Oszillation des WHWP synchron verlaufen, kann nicht festgestellt werden, wer von beiden den größeren Einfluss auf das Temperaturniveau in Europa hat. Eventuelle geht von der WHWP ein bisher unterschätzter Beitrag aus. Wenn sich die Ausdehnung der „zweitwärmsten Badewanne der Erde“ in Zykluswarmphasen um mehr als das 10-fache der Fläche von Deutschland ausdehnt, ist wegen der hohen Wassertemperatur von >28,5 Grad und der enormen Energiemenge, die an die Luft abgegeben wird, ein bedeutender Anteil an der Erwärmung in Europa vorstellbar.

 

Temperaturtrend in Island eng mit der AMO und der Oszillation des WHWP verknüpft

In welchem Umfang der Temperaturtrend von Atlantik incl. der Karibik und des östlichen tropischen Pazifiks auf Europa übertragen wird, zeigt die folgende Abbildung mit dem zyklischen Temperaturtrend von Island. Wegen der Insellage im Atlantik ist in Island noch am ehesten mit einer Temperaturübertragung von der Ozeanoberfläche zu rechnen.

Abbildung 6: Trend der Temperatur im Sommerhalbjahr in Island seit 1903 im ca. 65-jährigen AMO-Zyklus

 

Auch in dieser Darstellung ist der Temperaturtrend der AMO eingefügt. Der Temperaturtrend in Island verläuft parallel zum AMO-Trend. So kann der Temperaturanstieg der letzten 30 Jahre in Island von gut einem Grad allein durch den Trend der AMO und Oszillation des WHWP erklärt werden. Das gleiche gilt für den Eisverlust in der Arktis.

 

Arktische Meereisfläche eng mit der AMO und der Oszillation des WHWP verknüpft

Der Zusammenhang zwischen arktischer Meereisfläche und AMO-Zyklus ist in unzähligen Publikationen unübersehbar belegt, s. google scholar. Die Arktischen Meereisfläche wird seit 1979 durch Satelliten gemessen. Die Antikorrelation zwischen AMO und der Meereisausdehnung wird durch die folgende Abbildung veranschaulicht. Hier werden die Septemberdaten am Ende der Schmelzsaison gewählt.

Abbildung 7: Trend der Arktischen Meereisfläche seit 1979 im ca. 65-jährigen AMO-Zyklus

 

Obwohl die Satellitendaten weniger als einen AMO-Zyklus füllen, kann am Kurvenverlauf die Antikorrelation zwischen dem AMO-Index und der arktischen Meereisfläche abgelesen werden. Je wärmer der Nordatlantik, je höher das Temperaturniveau in Island und der Arktis, umso größer der Eisverlust. Hinsichtlich der Meereisfläche befinden wir uns aktuell mitten in der Minimumphase. In den nächsten 5 bis 10 Jahren dürfte die Meereisfläche wieder zulegen.

 

Aktuelle Warmphase in Deutschland vom Trend der AMO und Oszillation des WHWP beeinflusst

Auch im Gebietsmittel von Deutschland hinterlassen die AMO und die Oszillation des WHWP im Temperaturtrend des Sommerhalbjahres tiefe Spuren, s. nächste Abbildung.

Abbildung 8: Trend der Temperatur im Sommerhalbjahr im Flächenmittel von Deutschland seit 1881 im ca. 65-jährigen AMO-Zyklus

 

Im aktuellen Zyklus (rot) verlaufen die Kurven für den Trend der Mitteltemperatur und der AMO (blau) parallel. Der gesamte Temperaturanstieg in Deutschland in den letzten 40 Jahren lässt sich auf den Einfluss der AMO und die Oszillation des WHWP zurückführen.

Aber warum koppelt sich der Temperaturtrend des aktuellen Zyklus (rot) ab der Mitte des 65-jährigen AMO-Zyklus um das Jahr 2000 herum von den vorherigen älteren Zyklen ab und steigt um ca. 1 Grad höher? Die Ursache könnte in der Oszillation des WHWP liegen. Bei dem WHWP in Abbildung 5 ist die Fläche mit > 28°C im Zeitraum 2016 bis 2021 (rote Linie im gelben Feld) ca. 4 Mio. km² größer als 65 Jahre zuvor von 1950 bis 1955 (grün). Diese Differenz könnte sich auf das Temperaturniveau in Deutschland ausgewirkt haben.

 

Erheblicher Einfluss von AMO und WHWP auf die Sonnenscheindauer in Potsdam

Auch die Sonnenscheindauer in Deutschland unterliegt dem Einfluss von AMO und WHWP, s. nächste Abbildung. Hier werden die Daten von Potsdam genutzt, weil diese bis 1893 zurückreichen, während die Daten für das Gebietsmittel von Deutschland erst seit 1951 verfügbar sind.

Abbildung 9: Trend der Jahressonnenscheindauer in Potsdam seit 1893 im ca. 65-jährigen AMO-Zyklus

 

Der Einfluss des ca. 65-jährigen AMO-Zyklus auf die Sonnenscheindauer ist unübersehbar. Der Trend der Sonnenscheindauer nimmt in den beiden Zyklen in ähnlichen Bahnen bis ins letzte Drittel des Zyklus um beachtliche ca. 200 Stunden zu. Der Trend im aktuellen Zyklus (rot) verläuft bis 2017 parallel zum vorhergehenden Zyklus (blau). Bis 2017 lässt sich der Anstieg der Sonnenscheindauer in den letzten 30 Jahren allein auf den Trend von AMO und Oszillation des WHWP zurückführen. Einen weiteren Beleg für die Verknüpfung von Atlantiktemperatur und Sonnenscheindauer in Europa liefern Andrzej A. Marsz et al. 2021.

Die regelmäßige Zunahme der Sonnenscheindauer während des AMO-Zyklus wirkt als Temperaturverstärker der AMO. Die Luft in Europa wird in Warmphasen durch die Atlantik- und Karibikoberfläche vorgewärmt und schließlich durch verlängerte Sonnenscheindauer in Deutschland weiter aufgeheizt (Laurenz 2021).

Die Ursache extrem hoher Sonnenscheindauer in den Jahren 2018, 2019, 2020 und 2022 auf einen langfristigen Trend zurückzuführen und in die Zukunft zu interpolieren, lässt sich aus der Darstellung nicht ableiten. Eher dürfte die aktuelle Sonnenaktivität für diese Extremjahre verantwortlich sein  (Laurenz 2021). Abbildung 1 mit der Niederschlagssumme im zweiten Halbjahr in den Niederlanden zeigt, wie Änderungen der Sonnenaktivität den Wettercharakter von Einzeljahren bestimmen können. In Abbildung 1 stand für 2018 bei der Sonnenaktivität die Erzeugung von Dürre in den Niederlanden auf dem Programm. Parallel dazu dürfte die Sonnenaktivität in 2018 auch für die Rekordsonnenscheindauer in Potsdam verantwortlich gewesen sein (s. Abb. 9).

 

Frühjahrstrockenheit der letzten 15 Jahre in Deutschland korreliert mit ca. 65-jährigem AMO-Zyklus

Mit dem 65-jährigen Periodenzeitraum lassen sich auch noch andere Klima- und Wetterphänomene erklären. In Deutschland ist das Frühjahr seit 2008 ununterbrochen eher zu trocken, mit unterdurchschnittlicher Niederschlagssumme im April. Der April gilt als Frontmonat des Sommers. Dürre und ausgetrocknete Böden Ende April verringern die Wolken- und Niederschlagsbildung in der Folgezeit. So kann sich eine Aprildürre in eine Frühsommer- und Sommerdürre weiterentwickeln. Dass sich dieser Trend bald wieder umkehren dürfte, soll die nächste Abbildung zeigen:

Abbildung 10: Trend des April-Niederschlags in Deutschland seit 1881 im ca. 65-jähr. AMO-Zyklus

 

Der Niederschlagstrend folgt in allen drei Zyklen einem gemeinsamen Trend. In der ersten Hälfte des dritten Hale-Zyklus liegt die Niederschlagssumme in den drei Zyklen (schwarz, grün, rot) um fast 20 mm bzw. ein Drittel niedriger als in der davor oder danach liegenden Zykluszeit. In den kommenden fünf Jahren dürfte sich das Niveau der Aprilniederschlagssumme wieder normalisieren, die Gefahr von Frühsommertrockenheit in Deutschland wieder abnehmen.

 

Warum übersieht der Deutsche Wetterdienst den Einfluss der Ozeanzyklen auf die aktuelle Warmphase in Europa?

Die Verknüpfung zwischen AMO- und WHWP-Zyklen mit dem Temperaturtrend in Deutschland bzw. Europa ist in der Literatur umfangreichst beschrieben und in den Darstellungen in diesem Beitrag unübersehbar. So verwundert, dass der fast vollständig von Steuermitteln abhängige Deutsche Wetterdienst in seinem letzten Jahresbericht kein Wort über Ozeanzyklen verliert, die Erwärmung praktisch allein mit anthropogenem Einfluss begründet (Klimatologischer Rückblick auf 2022). Hier ein kleiner Ausschnitt der Zusammenfassung:

 „Seit dem Jahr 1881 haben wir nun einen Anstieg der Jahresmitteltemperatur in Deutschland von 1,7 Grad. Dieser lässt sich nur durch den menschgemachten Klimawandel erklären. Seit Anfang der Siebziger Jahre hat sich dieser Erwärmungstrend deutlich beschleunigt und es gibt keinen Grund anzunehmen, dass sich dieser in den nächsten Jahren verlangsamen wird. Wir erleben inzwischen Hitzeperioden und -intensitäten, die wir aus den Klimamodellen eigentlich erst in ein paar Jahrzehnten erwartet hätten. Dies alles muss für uns eine starke Motivation sein, den Klimaschutz in Deutschland und global bedeutend stärker voranzutreiben, denn Anpassung ist viel teurer und selbst bei uns nur begrenzt möglich.“

 




Schweizer Solarstrom-Bonanza: Ist die Schweiz noch ganz bei Sinnen?

von Prof. Dr. Horst-Joachim Lüdecke

Eine gute Freundin der Familie des Autors hörte während ihres Schweizer Ski-Urlaubs eine Radiosendung des Schweizer Radios und Fernsehens SRF über die aktuelle „Photovoltaik-Bonanza“ in der Schweiz und schickte ihm den Link zur Sendung (hier). Beim Anhören dieses Radiobeitrags traute man seinen Ohren nicht mehr. Falls man nämlich im guten Glauben an die Solidität der Schweizer Industrie und ihrer Hochschulen meinte, dort wäre es mit der technischen und sachlichen Vernunft besser bestellt als bei uns in Deutschland, wurde man eines „Schlechteren“ belehrt.

Als „Experte“ kam in der Sendung der Schweizer Professor Jürg Rohrer zu Wort. Dieser Professor ohne(!) Promotion lehrt an der Hochschule „ZHAW Life Sciences und Facility Management Institut für Umwelt und Natürliche Ressourcen“ (was ist darunter eigentlich konkret zu verstehen?) und ist zu all dem auch noch gemäß seiner Hochschulwebseite (hier) Mitglied von WWF, VCS, Greenpeace, Pusch, Alpenclub (SAC), mountain wilderness, Energiestiftung (SES), SSES, und Grüne Partei. Somit entsteht die Frage, wie Herr Rohrer seine gleichzeitigen Mitgliedschaften in „Alpenclub und mountain wilderness“ mit den Mitgliedschaften bei den größten Umweltzerstörern der heutigen Zeit, nämlich den Grünen (Windräder in Deutschland, Biomais in Bayern und jetzt Photovoltaik in der Schweiz) und bei dem das Kriminelle streifenden Verein Greepeace (hier), in einer einzigen Person zu vereinen vermag.

Auf der Hochschulwebseite von Herrn Rohrer ist unter Aus- und Fortbildung „dipl. Masch. Ing. ETH, CAS Hochschuldidaktik“ zu finden, die ETH Zürich ist es glücklicherweise nicht. Dass Herr Rohrer aber als praxisgestählter Ingenieur zur Erhöhung des Schweizer BIP beigetragen hat, darf mit hoher Wahrscheinlichkeit bezweifelt werden. Böse Zungen würden ihn eher als Aktivist, hier speziell als Advokat der Photovoltaik und Professor für Geschwätz-Wissenschaft bezeichnen, der durch stramm-grüne Agitation mit einer Professur belohnt wurde. Der SRF sollte sich fragen, ob in seinem Interview nicht der berühmten Bock zum Gärtner gemacht wurde, aber vermutlich war dies von den mehrheitlich rot-grünen Journalisten ja auch gewollt.

Über den sachlichen Unsinn der Photovoltaik (PV) zum Zweck der Stromversorgung eines modernen Industrielandes ist bereits genug geschrieben worden. PV ist allenfalls sinnvoll in sonnenreichen Drittländern, in denen große Teile der Bevölkerung noch ohne Stromversorgung in Hütten leben und mit einer kostengünstigen PV-Anlage, durch ein paar Autobatterien abgepuffert, zumindest Ihr Smartphone, den Fernseher und eine Sparbeleuchtung betreiben können. Selbst im komplett energieverrückten Deutschland beträgt 2022 der Solarstromanteil etwa 11 % (hier), das sind dann nur 1,8 % Anteil an der deutschen Primärenergie, weil der Stromanteil an der deutschen Primärenergie grob 16 % ausmacht.

Am besten ist der reale Stellenwert der PV aus folgender Grafik abzulesen, in welcher der Erntefaktor ERoEI als das „Verhältnis der gesamten während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zu derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste“ gezeigt wird. Die Stromerzeugungsverfahren sind dabei Sonne, Energiemais, Wind, Gas, Kohle, Wasser und Kernkraft. Das „Trio fatal“ Sonne, Wind und Energiemais erfüllt nicht einmal die Minimalforderungen der OECD-Länder! Man beachte, dass nur ein deutliches ERoEI > 7 Stromgewinnung gemäß der ökonomischen Schwelle von OECD-Ländern sinnvoll macht.

 

Erntefaktoren für Methoden der Stromerzeugung, gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern. Das Bild entspricht Fig. 2 der begutachteten Original-Studie des renommierten Wissenschaftsverlags Elsevier (hier) und wird im Buch „H.-J. Lüdecke, Klima und Energie, expert-Verlag, 4. Auflage“ gezeigt. Für Sonne beträgt der ERoEI Wert 2,4.

In der SRF-Sendung über die „Photovoltaik-Bonanza“ kamen nur Befürworter der PV, aber keine Kritiker zu Wort. Den Befürwortern ging es überdeutlich nur um die „Kohle“, man vermeinte geradezu in ihren Augen den soliden Schweizer Franken blitzen zu sehen, wenn sie ständig von Bundeszuschüssen redeten. Kein Wort war dagegen zu hören über die extrem geringe Energiedichte von Sonneneinstrahlung, die in unseren Breite nur extrem mickrige 10-15 W/m2 gemittelter Jahresleistung von Solarpanelen ermöglicht (hier), ebenfalls kein Wort über die Probleme mit der Stabilität des Stromnetzes, wenn immer mehr Wind- und Sonnen-Flatterstrom ins Netz gedrückt wird (mindestens 30 – 40% Grundlastkraftwerke mit Gas, Kohle, Öl, Uran inkl. der starken Schweizer Wasserkraft sind nötig, bei weniger gesicherter Grundlast ist Netz-Stabilität nur noch mit Stromzuteilungswirtschaft möglich – Wäsche waschen nur noch, wenn die Sonne scheint oder der Wind weht usw.) und schlussendlich kein Wort über den irrsinnigen Verbrauch von Anschlusskabeln für PV in alpinen Höhenlagen der Schweiz. Wo soll das ganze Kupfer für die Kabel herkommen und wer soll das alles bezahlen? Pardon, liebe Leserinnen und Leser, die Bundeszuschüsse bezahlen es natürlich.

Das Einzige, was bei allen Aussagen in der Sendung überhaupt stimmte, war die etwas größere Leistung von Solarzellen bei Kälte in Wintermonaten, wobei der korrekte Umkehrschluss, nämlich das Absacken der Solarpanelen-Leistung bei großer Wärme in heißen Sommermonaten, verschwiegen wurde. Die Gegenaussage zu  „größere PV-Leistung in Kälte“ wurde dann von unserem professoralen Experten in der SRF-Radiosendung salopp unter den Teppich gekehrt: dass nämlich die Sonnenscheindauer von zum Beispiel Bayern in den 6 wärmeren Monaten April-September etwa das 2,5-fache der 6 kälteren Monate beträgt (DWD), in der Schweiz dürfte das Verhältnis ähnlich sein. Wie soll man die in einer Schweizer Radiosendung fast schon unglaubliche Anhäufung von Falschaussagen und Verschweigen von bekannten technischen Zusammenhängen eigentlich bezeichnen, ohne jede Höflichkeit abzulegen?

Beim Thema „Kälte bzw. Hitze“ von Solarpanelen kann sich der Autor nicht einer interessanten persönlichen Anekdote enthalten: Als Experte und vor etwa 2 Jahrzehnten erhielt er eine seltsame telefonische Anfrage von einem Ing.-Büro, welches nach einigem Zögern damit herausrückte, dass es Solarstrom in der Sahara im Auge hatte. Diesen Leuten war immerhin bekannt, dass die Solarzellenleistung bei starker Erhitzung extrem einbricht, und sie wollten einfach einmal eine fachliche Einschätzung zu einer angedachten Wasserkühlung der Solarzellen hören. Das Telefonat wurde nicht sehr lang, als den netten Kollegen klar gemacht wurde, dass das Wasser (woher inder Wüste nehmen?) erst einmal unter Energieverlusten mit dem ohnehin spärlichen PV-Strom zu kühlen sei, zudem auch noch die Aufrechterhaltung der Zirkulation des Kühlwassers energieverbrauchend ist und diese Idee daher wohl eher zur Kategorie „Schnaps“ zählt.

Als Fazit darf man die Schweiz inzwischen aus der Liste der Länder mit einer technisch und umweltgemäß vernünftigen Energiepolitik streichen. Der einzige noch verbliebene Rettungsanker dieses ehemals freien Landes sind die Volksabstimmungen, und man versteht nun, dass Volksabstimmungen in Deutschland politisch gefürchtet sind wie der Teufel in der heiligen Messe. Das Selbstbewusstsein und der Mut der Schweizer in Zeiten, als sie sich gegen einen übergriffigen burgundischen Herzog in zwei extrem blutigen Schlachten von Murten und Grandson ihre Freiheit zurückeroberten, sind lange vorbei. Heute ist es offenbar Beschlusslage, dass in den Schweizer Freiflächen in großem Stil völlig unsinnige Solaranlagen installiert werden sollen. Aber auch die Schweizer Anbiederung an die grüne EU lässt nichts Gutes für die Freiheit dieses Landes erwarten. Die Titelfrage dieses Beitrags ist daher nicht ganz unangebracht.




Klimarealismus statt Klimanotstand

Vorwort

Über das Klima gibt es heute in Politik, Öffentlichkeit und Medien nicht nur erhebliche Unkenntnis, sondern vor allem Vorurteile, von wenigen journalistischen Ausnahmen abgesehen. Die großen etablierten Medien berichten wegen staatlicher Subventionen [1] und wegen einer fragwürdigen inneren Einstellung, die allgemein „Haltungsjournalismus“ genannt wird, nicht mehr korrekt. Sie folgen blind und ohne jede kritische Nachfrage dem zurzeit vorherrschenden Klima-Totalitarismus. Das war bis vor 15 Jahren anders, als beispielsweise die FAZ noch kritisch-neutral berichtete [2]. Die korrekte und ausgewogene Information, die die Öffentlichkeit erwarten darf, wird zum Thema Klima gegenwärtig nur noch von freien Medien geliefert, dies aber leider mit sehr unterschiedlicher Qualität. Im Übrigen verbleiben nur noch die Klimafachliteratur und die Sachstandsberichte des IPCC [3] als Informationsquellen. Beide sind zwar frei zugänglich, wegen ihres riesigen Umfangs und ihrer fachlichen Komplexität aber nur für Experten brauchbar.

Die folgende Zusammenstellung versucht dieses Problem zu lösen, indem die Klima-Forschungsergebnisse des heutigen Stands komprimiert und allgemeinverständlich dargestellt werden. Sie bedient sich der vom IPCC aus der Fachliteratur zusammengestellten Sachstandsberichte („Assessment Reports“, im Folgenden als IPCC-AR bezeichnet) und begutachteten Fachliteraturstudien. Das komplexe und vielschichtige Klimathema wird in 12 abgeschlossene Kapitel aufgeteilt. Die Quellenangaben dienen der eigenen Überprüfung und Beantwortung noch offener Fragen.

Die hier vorgelegte Zusammenstellung verfolgt das Ziel, in Kürze und Verständlichkeit das Thema Klima darzustellen.

 

1.    Das Intergovernmental Panel on Climate Change IPCC

Das IPCC ist eine politische Organisation der UN, bei der weltweit zahlreiche Klimaforscher ehrenamtlich mitarbeiten. Sein Gründungsauftrag bestand und besteht immer noch darin, die Hypothese vom anthropogenen (menschgemachten) Ursprung der derzeitigen Klimaerwärmung, genannt „Klimawandel“, wissenschaftlich zu belegen [4]. Bereits dieser Auftrag verletzt die Grundlage aller modernen Naturwissenschaften, nämlich das Gebot, ergebnisoffen zu arbeiten und unterscheidet die IPCC-Berichte deshalb von echter wissenschaftlicher, neutraler Forschung. Das IPCC ist dennoch in seiner Art einzigartig und wertvoll, weil es die unzähligen, kaum noch überschaubaren Fachveröffentlichungen der Klimaforschung in seinen IPCC-AR zusammenfasst. Leider geschieht dies nur auf Englisch. In den IPCC-AR ist freilich weder der Begriff „Klimanotstand“ (climate emergency) noch ein stringenter wissenschaftlicher Beweis der Ursprungs-Hypothese aufzufinden, dass anthropogenes CO2 die globale Mitteltemperatur maßgebend erhöht. Dies bedeutet nicht, dass diese Hypothese falsch sein muss, sondern dass man über sie mit heutigen wissenschaftlichen Methoden nicht entscheiden kann.

Neben den IPCC-AR gibt es auch noch die Zusammenfassungen des IPCC für die politischen Entscheidungsträger („summaries for policymakers“) [5]. In diesen – nicht wissenschaftlichen – Zusammenfassungen schreiben auch die jeweiligen Regierungen und zum Teil sogar private Organisationen (die „Non Goverment Organisations“, abgekürzt NGOs) mit, wobei erwartungsgemäß diejenigen Inhalte der IPCC-AR, die die Ursprungs-Hypothese vom menschgemachten CO2 als Hauptursache für die Erhöhung der Mitteltemperatur in Zweifel ziehen oder gefährden könnten, einfach weggelassen werden. Ein Teil der Erkenntnisse aus den IPCC-AR wird also schlicht und einfach verschwiegen. Dieses Verschweigen entwertet die „summaries“ als verlässliche Informationsquelle.

In den IPCC-Berichten ist weder der Begriff „Klimanotstand“, noch ein wissenschaftlicher Beweis für eine Klimaschädigung durch menschgemachtes CO2 aufzufinden.

 

2.    Was ist überhaupt Klima?

Klima ist von der Wissenschaft definiert als der lokale Mittelwert von Wetter über mindestens 30 Jahre [6]. Alles zeitlich Kürzere zählt zum Wetter (Abb. 1). Die Vermischung von Klima mit Wetter ist leider zum Alltag in den Medien und der Politik geworden.

Abb. 1: Wetterbeispiel, Bildquelle NASA

Hierzu seien zwei Beispiele genannt: Beim Orkan „Kyrill“ im Jahr 2007 und auch beim Hochwasser im Ahrtal 2022 konnte man überall von Klima-Phänomenen, vom Klimawandel und vom Klimanotstand lesen und hören. Das war falsch. Es tobte nicht in den letzten 30 Jahren regelmäßig ein Orkan von der Stärke eines „Kyrill“ über Deutschland, und das Ahrtal wurde eben nicht regelmäßig in den letzten 30 Jahren von einem derartigen Hochwasser heimgesucht, dass dort reihenweise Häuser und Straßen zerstört wurden. Es handelte sich um einzelne Wetterphänomene, um einzelne Extremwetter (dazu im Einzelnen weiter unten in einem eigenen Kapitel). Aber mit dem Begriff Klima hatten diese Unwetter nichts zu tun. Einzelne Extremwetter sofort mit dem Begriff vom Klima zu verbinden oder zu vermischen ist unseriös und im höchsten Maß unwissenschaftlich, geschieht aber inzwischen leider ständig.

Ein weiterer Begriff, der in den Medien und der Politik regelmäßig falsch benutzt wird, ist der Begriff „globales Klima“ bzw. „Weltklima“. Es gibt kein Weltklima, welches man als wirkliche Erscheinung auf unserer Welt feststellen oder messen könnte! Es gibt auf der Erde verschiedene Klimate, nämlich die beiden polaren Klimazonen, die gemäßigte Klimazone, die subtropische und die tropische Klimazone. Diese Klimazonen weisen nicht nur über die letzten 30 Jahre, sondern schon seit tausenden Jahren verschiedene Mittelwerte beim Wetter auf. Um es ganz plakativ zu formulieren: Am Äquator hat es in den letzten 1000 Jahren auf Meereshöhe nicht geschneit und am Nordpol hat es in den letzten 1000 Jahren keine Tageshöchsttemperatur von +38 Grad Celsius gegeben. Ein „Weltklima“ als Erscheinung in der Natur gibt es nicht! Das sogenannte Weltklima bzw. globale Klima ist eine rein rechnerische Größe, ein statistischer Durchschnitt.

Solche statistischen Durchschnittswerte sind für die Klima-Laien, zu denen auch die Politiker gehören, unbrauchbar, weil diese Werte eben nur rein rechnerische Größen beschreiben, die in dieser Form aber beinahe nie tatsächlich in der Natur auftreten. Hierzu ein Beispiel: Nach dem Wetterdiagramm der Stadt Atar in der Sahara herrscht dort im Monat März im Durchschnitt eine Tagestemperatur von 34 Grad Celsius und eine Nachttemperatur von 16 Grad Celsius. Gemittelt herrscht also im März in Atar eine Temperatur von 25 Grad. Aber dieses rechnerische Mittel ist vor Ort fast nie zu erleben. Denn entweder ist die Sonne aufgegangen. Dann ist es dort wesentlich wärmer, nämlich im Durchschnitt 34 Grad. Oder die Sonne ist untergegangen. Dann ist es wesentlich kälter, nämlich im Durchschnitt nur 16 Grad. Den rein rechnerischen Durchschnittswert von 25 Grad wird man also in Atar im März so gut wie nie erleben.

Betrachtet man die Temperaturen, die wir in der Gegenwart tatsächlich messen und feststellen, zeigen sich zum Teil große Unterschiede. Während es auf der Nordhalbkugel in den letzten Jahrzehnten stetig wärmer wurde, zeigten die Antarktistemperaturen dagegen ein nahezu entgegengesetztes Verhalten [7]. Es bleibt daher festzuhalten: Ein globales Klima als echtes Naturphänomen gibt es nicht. Es handelt sich bei diesem Begriff lediglich um eine abstrakte rechnerische Größe.

Schließlich muss an dieser Stelle auch mit einer weiteren Fehlvorstellung aufgeräumt werden, die uns beinahe täglich begegnet. In den Medien und der Politik wird suggeriert, dass es „das Klima“ als eine von Natur aus statische und feststehende Größe gäbe, die allein durch den Menschen und durch das menschgemachte CO2 verändert würde. Diese Vorstellung ist falsch. Das Klima hat sich in den vergangenen Jahrtausenden oder Millionen von Jahren oft extrem verändert und „gewandelt“ und zum Teil auch wiederholt. Das geschah immer wieder, gerade auch zu Zeiten, bevor es überhaupt den Menschen oder das menschgemachte CO2 auf der Erde gab.

Bereits an dieser Stelle versagt das IPCC bzw. die öffentliche Diskussion um den sogenannten „Klimawandel“. In beinahe allen Beiträgen in den Medien bzw. in der politischen Diskussion werden nur die Zahlen ab Beginn der Industrialisierung, also etwa ab 1850 genannt. Das ist wissenschaftlich betrachtet Unsinn, weil es zweifelsfrei auch vor 1850 verschiedenes Wetter und verschiedene Klimate gegeben hat und weil wir über das Wetter bzw. das Klima vor 1850 eine ganze Menge wissen. Es ist daher einfach unredlich alle wissenschaftlichen Erkenntnisse, die für die Zeit vor 1850 vorliegen – und davon gibt es sehr viele – zu negieren. Dieses Vorgehen würde, übertragen auf die Geschichte des Menschen, bedeuten, dass man vom römischen Reich unter Julius Cäsar, dass man vom Reformator Martin Luther und vom französischen Kaiser Napoleon nichts mehr wissen will, weil alle diese Personen vor 1850 handelten und wirkten. Allein daran ist zu erkennen, wie unsinnig die Beschränkung der Klima-Diskussion auf die Zeitspanne nach einem bestimmten Anfangsjahr ist.

An dieser Stelle seien nur zwei Beispiele genannt, welche die extreme Veränderlichkeit des früheren Klimas belegen. Während der Eem-Warmzeit vor rund 130.000 Jahren war das Flusspferd (hippopotamus amphibius) an den Flussläufen von Rhein und Themse verbreitet, wie Knochenfunde belegen [8]. Da Flusspferde nur in heißen Regionen leben, die ganzjährig warm und frostfrei sind, heute daher nur in den Tropen und den Subtropen vorkommen, steht fest, dass es damals am Rhein und an der Themse deutlich wärmer war als heute, nämlich tropisch warm [9].

Umgekehrt ist allgemein bekannt, dass ganz Skandinavien und die gesamte Ostsee zum Höhepunkt  der letzten Eiszeit, also vor etwa 20.000 Jahren, von riesigen Gletschern überzogen waren. Es war damals also in unseren Breiten deutlich kälter als heute. Danach – und nachweislich vor dem maßgebenden Einfluss des Menschen, vor der Industrialisierung und vor dem menschgemachten CO2 – wurde es deutlich wärmer, so dass die Gletscher abschmolzen. Das Ergebnis dieser natürlichen Erwärmung, die nichts mit dem menschgemachten CO2 zu tun hatte, sehen wir heute: Die Ostsee ist ein offenes Meer, kein Gletscher ist mehr da. Und Skandinavien liegt frei und ist nicht unter einem riesigen Gletscher begraben. Nähere Einzelheiten zur Veränderlichkeit und Entwicklung des Klimas werden im Kapitel 3 „Klima von der Vergangenheit bis zur Gegenwart im Kurzdurchgang“ geschildert.

Einzelne Wetterereignisse, auch einzelne Extremwetter, bedeuten keinen „Klimawandel“. Das Klima hat sich im Laufe der Jahrtausende immer gewandelt. Es ist dem Klima immanent, dass es sich im Laufe der Zeit verändert.

 

3.    Klima von Vergangenheit bis zur Gegenwart im Kurzdurchgang

Die Temperaturen der Eiszeitalter [10] / Warmzeitalter und der CO2-Gehalt der Atmosphäre über die letzten 500 Millionen Jahre in Abb. 2 zeigen starke Schwankungen [11], aber keine gute Übereinstimmung (Korrelation).

Abb. 2: Erdtemperatur (schwarz) und CO2-Gehalt der Atmosphäre (grün) bis 550 Millionen Jahre zurück. Bild erstellt aus den Originaldaten.

Die beiden in Abb. 2 gezeigten Kurven sind wegen methodischer Probleme nach so extrem lang zurückliegenden Zeiten mit Unsicherheiten behaftet. Festzuhalten ist, dass Warmzeitalter und Eiszeitalter gleichermaßen die Erdnormalität waren. Ihre Periodenlänge betrug etwa 150 Millionen Jahre.

Die uns näherstehende letzte Eiszeit – nicht zu verwechseln mit den Eiszeitaltern in Abb. 2 – begann vor ca. 125.000 Jahren und endete vor ca. 10.000 Jahren (Abb. 3). Die Temperaturen, gewonnen aus Eisbohrkernanalysen der Antarktis, lagen dort im Tiefpunkt der letzten Eiszeit 9 °C unter den heutigen Werten9. Die skandinavischen Gletscher reichten bis nach Norddeutschland hinein. Nach diesem Temperaturminimum wurden unsere heutigen Warmzeit-Temperaturen in nur 12.000 Jahren erreicht. Die bisher jüngste der wesentlich kürzeren Zwischeneiszeiten (Zwischenglazial) hatte sich durchgesetzt, in der wir aktuell leben. Die Schnelligkeiten der Anstiege nach jeder Eiszeit in Abb. 3 sind übrigens der Wissenschaft immer noch ein Rätsel, während die Ursachen der Eiszeiten selber als Milankovitch-Zyklen schon länger bekannt sind [12]. Zwei Phänome in Abb. 3 sind besonders bemerkenswert: Die Eiszeiten waren stets viel länger als die kurzen Warmzeiten, d.h. in den letzten 500.000 Jahren war es im Durchschnitt sehr viel kälter als heute. Und der Verlauf der Temperaturkurve in Abb. 3 suggeriert, dass wir relativ bald mit hoher Wahrscheinlichkeit wieder in eine neue Eiszeit abtauchen werden.

Abb. 3: Antarktische Temperaturen (blau) und CO2 der Luft (grün) aus Eisbohrkernanalysen der russischen Vostok-Station über 400.000 Jahre (1k = 1000 Jahre), erstellt aus den numerischen Daten der Original-publikation9.

In Abb. 3 sind um ~100 ppm (ppm = parts per million) schwankende CO2-Werte der Atmosphäre (grün) infolge von um ~12 °C schwankenden Antarktis-Temperaturen (blau) abzulesen. 1 ppm Steigerung des CO2-Gehalts der Luft führt also zu 0,12 °C Antarktischer Ozeanerwärmung, in Kapitel 6 wird dieser Zusammenhang noch einmal aufgegriffen. Die CO2-Kurve hinkt übrigens der Temperaturkurve um 800 bis 1000 Jahre hinterher [13] (in der Zeitauflösung von Abb. 3 nicht mehr erkennbar). CO2 wird also von der Ozeantemperatur angetrieben, nicht umgekehrt! Wärmeres Wasser gast CO2 aus, kälteres bindet es.

Die jüngsten 9000 Jahre zeichnen sich dann glücklicherweise für die Menschheit durch relativ geringe Schwankungen der Jahresmitteltemperaturen aus [14], hier in nordhemisphärischen Breiten von grob +/- 1°C (Abb. 4).

Abb. 4: Nordhemisphärische Mitteltemperaturen der letzten 11.000 Jahre. Die Temperaturen zu Zeiten des mittelalterlichen Klimaoptimums (MWP) entsprachen denen von heute, das römische Optimum (RO) war etwas wärmer, die beiden Optima im Holozän (um 4500 und um 7000 Jahre vor heute) sogar wesentlich wärmer. Die Temperaturermittlung erfolgte vorwiegend aus Eisbohrkern-Analysen. Bildquelle: H. Kehl, ehemals TU Berlin.

Herausragende Wärmeperioden dieser Zeitspanne waren die Klimaoptima im Atlantikum vor 8000 bis 6000 Jahren und vor 3500 bis 4500 Jahren, später die römische Warmperiode um die Zeitenwende, dann die mittelalterliche Warmperiode mit dem Höhepunkt um das Jahr 1000 und schließlich unsere aktuelle, ab 1850 einsetzende und schwächste aller vorgenannten Warmperioden. Alle diese Warmperioden sind inzwischen in unzähligen Fachstudien als weltweit verbreitet nachgewiesen, was wegen hartnäckig falscher Behauptungen, es seien nur lokale Phänomene gewesen, sogar zu berichtigenden Zeitungsartikeln Anlass gab [15]. Zwischen den Warmperioden lagen Kaltperioden, die letzte und kälteste ist als „kleine Eiszeit“ bekannt. Sie dauerte von ~1400 bis 1850 [16], holländische Maler haben sie in ihren weltberühmten zeitgenössischen Winterbildern für uns anschaulich festgehalten [17].

Angesichts der aktuellen Befürchtungen einer gefährlichen globalen Erwärmung durch anthropogenes CO2 muss betont werden, dass immer nur Warmperioden für die Menschheit günstig waren und dabei stets kulturelle Höhepunkte hervorbrachten. Kaltes Klima war dagegen stets durch Missernten, Seuchen und Völkerwanderungen geprägt. Dies gilt natürlich nur für gemäßigte Klimazonen, nicht für Hochkulturen der Tropen, bei denen nicht das Temperaturproblem, sondern meist das Bewässerungsproblem im Vordergrund stand.

Früher waren oft nicht nur die Temperaturen höher, sondern auch ihre Änderungen schneller als heute. Die immer wieder zu hörende Behauptung, alle früheren Erwärmungen seien langsamer von statten gegangen, ist falsch [18]. Sogar in jüngerer Zeit zeigt die bereits 1659 beginnende mittelenglische Thermometerreihe CET von 1687 bis 1737 eine 50-jährige Temperaturerhöhung (in linearer Regression) von rund 1,9 °C. Ab 1850 bis heute betrug dann der stärkste 50-jährige Anstieg nur noch 1,3 °C [19].

Temperaturen waren in früheren Zeiten oft höher, ihre Änderungen teilweise auch schneller als heute. Warmes Klima war immer günstig, kaltes zog in unseren Breiten stets Missernten, Seuchen und Völkerwanderungen nach sich.

 

4.    Gletscher

Das aktuelle Abschmelzen des Grönlandgletschers und insbesondere der Alpengletscher vor unserer Haustüre gilt in der Öffentlichkeit als Menetekel eines gefährlichen Klimawandels. Diese Sicht ist falsch, denn in schmelzenden Gletscherzungen der Alpen tauchen laufend Baumreste auf, deren genaue Altersbestimmungen und Fundhöhen belegen, dass in über 2/3 der letzten 9000 Jahre die Alpengletscher kleiner und auch die Temperaturen höher als heute waren [20] (s. Abb. 5, welche die Sommer-Temperaturen, die Waldgrenzen, die Gletscherausdehnungen und ihre Rückzugsperioden in den Alpen bis 11.000 Jahre zurück zeigt). Wald ist in Höhen gewachsen, die heute immer noch vergletschert sind und dies ohne menschliches Zutun [21], [22].

Aus globaler Sicht machen die polfernen Gletscher in den Alpen, im Himalaya, im Kaukasus, in Nordeuropa und in Neuseeland nur etwa 2 % der Gesamtgletschermassen der Erde aus. 90 % befindet sich in den riesigen Gebieten des Südpols – Antarktis – und schließlich 8 % in Grönland – Arktis –. Der Grönlandgletscher nimmt aktuell wieder ab, war aber bereits vor 10.000 bis vor 7000 Jahren kleiner als heute [23]. Die Antarktis verhält sich dagegen fast umgekehrt dazu. Hier nehmen Meereis zu und Landtemperaturen leicht ab [7].

Abb. 5: Alpengletscher, Baumgrenzen und Sommer-Temperaturen. Bildquelle:  Buch von Prof. Gernot Patzelt „Klimazeugen von der Eiszeit bis zur Gegenwart“ (2019).

 

5.    Extremwetter seit 1950

Das IPCC hat in seinem IPCC-AR5 von 2013 in Kapitel 2.6 die bislang bei weitem umfangreichste, auf Millionen von Einzelmessungen beruhende Extremwetterstudie vorgelegt [24]. Sie umfasst die Zeit ab 1950 mit den bislang stärksten CO2-Zunahmen und allen Extremwetterarten wie tropische Zyklone, Dürren, Überflutungen, Hagel und Gewitter. Resultat: Das IPCC findet keine signifikanten Zunahmen an Häufigkeit oder Stärke in Klimazeiträumen! In der Zusammenfassung des AR5 lautet es nüchtern “Es gibt nur begrenzte Hinweise auf Veränderungen bei Wetterextremen in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts (There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century)”. Zum Teil trifft sogar das Gegenteil der öffentlichen Befürchtungen zu, so beispielsweise für Zyklone an den australischen Küsten, die seit 1970 auffallend abnehmen [25]. Die meteorologische Fachliteratur bestätigt diese Aussagen des IPCC [26].

Der 8 Jahre jüngere AR6 änderte an der Hauptaussage des AR5 nichts Wesentliches, es kamen schließlich nur 8 Jahre Wetterdaten hinzu. Der AR6 fand leicht angestiegene Temperaturextreme und bevorzugte jetzt die unverbindliche Bezeichnung „voraussichtlich wahrscheinlich“ (likely) für weitere Extreme. Ist da etwas dran? Ja und nein: Zweifellos sind Extremwetterschäden infolge immer dichterer Besiedlung in gefährdeten Gebieten Realität. Das hat aber mit Klimaänderungen zunächst nichts zu tun. Allerdings führen Bodenversiegelungen und Kanalisierungen von Wasserläufen zu gesteigerter Bodentrockenheit und erhöhten Abflussmengen. Und da Intensitäten von Dürren und Überschwemmungen zu den Klimaparametern gehören, sind die nur die Zukunft betreffenden Vermutungen des AR6 nicht völlig aus der Luft gegriffen. Es handelt hier allerdings um Eingriffe des modernen Menschen in seine Umgebung, die mit dem anthropogenen CO2 in der Luft nichts zu tun haben.

Zunehmende Schäden durch Extremwetter infolge immer dichterer Besiedlung in gefährdeten Gebieten sind unbestrittene Realität. Durch den jüngsten Klimawandel bedingte Extremwetterzunahmen sind dagegen ein Mythos.

 

6.    Temperaturen und anthropogenes CO2

Die Konzentration von CO2 in der Luft wies ab Ende der Eiszeit bis zum Jahr 1850 (Beginn der Industrialisierung) nur relativ kleine Schwankungen um einen Mittelwert von ca. 280 ppm auf [27]. Danach stieg die Konzentration um 140 ppm bis aktuell auf 420 ppm an. Abb. 4 zeigt, dass die Temperaturschwankungen in unseren Breiten seit 9000 Jahren nur um etwas wenig mehr als ± 1 °C den Durchschnitt verlassen. In Kapitel 3 wurde dargelegt, dass 0,12 °C Änderung der Ozeantemperatur ~1 ppm CO2-Konzentrationsänderung bewirkt.  ± 1 °C Temperaturänderung entspricht somit ±8 ppm CO2-Änderung. Für den CO2-Anstieg ab 1850 bis heute von 140 ppm = 420 – 280 ppm (s. Abb. 6) sind daher die Änderungen der Meerestemperaturen viel zu klein. Grund des CO2-Anstiegs war tatsächlich die Kohleverbrennung infolge der Industrialisierung [28].

Korreliert diese CO2-Zunahme aber auch mit ansteigenden globalen Mitteltemperaturen? Zur Beantwortung der Frage kann die jüngste Erwärmung in drei Abschnitte unterteilt werden[29], [30] (Abb. 6): Von 1850 bis 1975 passt nur der grobe Trend zum Anstieg des CO2. Die in Abb. 6 deutlich erkennbaren Temperaturzyklen passen nicht dazu. Demnach könnte CO2 immer noch die Ursache sein, es kommen aber maßgebende zusätzliche Einflüsse hinzu, die bis heute unverstanden sind. Nur von 1975 bis etwa 2000 ist die Korrelation von Temperatur und CO2 gut. Demnach könnte CO2 Ursache der globalen Temperaturzunahme in diesen 25 Jahren sein.

Abb. 6: CO2 (grün) und globale Mitteltemperatur (blau) von 1850 bis 2000 [30]. Gestrichelt schwarz: lineare Regressionsgeraden.

Seit 2000 bis 2022 weisen die nunmehr aus Satellitenmessungen gewonnenen Temperaturen dann teilweise Plateaus, teilweise El Ninos auf, der mittlere Temperaturverlauf steigt aber so gut wie nicht mehr an [31] – die angegebene Quelle bietet alle erforderlichen Zeitreihengrafiken. In dieser letzten Zeitspanne liegt wieder keine gute Korrelation mit dem ansteigenden CO2 vor. Übrigens erreichen nur die Temperaturabnahme von 1850-1910 sowie die Zunahme von 1910-1940 die Klimafrist von 30 Jahren, alle anderen Zeitabschnitte gehören zu den Wetteränderungen.

Von Beginn der Industrialisierung um 1850 an bis heute gibt es keine gute Korrelation von globaler Mitteltemperatur und CO2. Nach dem verbindlichen Wissenschaftskriterium des Ockam-Prinzips der Hypothesensparsamkeit [32] sind daher natürliche Klimaschwankungen die Hauptursache der jüngsten Klimaerwärmung.

 

7.    Erwärmungs- und andere Wirkungen des anthropogenen CO2

Es geht in diesem Kapitel ausschließlich um die zusätzliche Erwärmungswirkung des anthropogenen CO2, nicht aber um den populär bezeichneten „Treibhauseffekt“. Bei letzterem erhöhen alle infrarotabsorbierenden „Treibhausgase“ der Atmosphäre – in Reihenfolge ihrer Stärke zuerst der Wasserdampf, dann CO2, CH4, N2O, FCKW, … – die globale Mitteltemperatur auf etwa 15 °C und machen damit die Erde für uns erst bewohnbar. Plakativ veranschaulicht denke man an ein in der Sonne abgestelltes Auto mit geschlossenen Scheiben. Es erwärmt sich, weil die warme Luft nicht entweichen kann. Bei der Erde ist es dagegen die Wärmeabstrahlung des Erdbodens, welche durch die „Treibhausgase“ beim Entweichen ins Weltall behindert wird.

Damit verglichen ist die Erwärmungswirkung durch zusätzliches anthropogenes CO2 extrem gering. Sie ist bereits weitgehend ausgereizt (gesättigt), und ihre Stärke ist weitgehend unbekannt. Der Grund: In der Atmosphäre spielen eine ganze Reihe zusätzlicher physikalischer Phänomene eine Rolle, von denen man vermutet, dass sie von der geringen Erwärmungswirkung des anthropogenen CO2 abhängig sind bzw. angestoßen werden. Diese Phänomene sind noch nicht alle verstanden. Musterbeispiel dafür sind Mit- oder Gegenkoppelungen durch Wolken (nicht zu verwechseln mit Wasserdampf), die auf Temperaturen der tiefen Atmosphäre einen weit stärken Einfluss als anthropogenes CO2 ausüben. Wolken sind bis heute nicht modellierbar.

Die Erwärmungswirkung, angestoßen durch anthropogenes CO2 und weiter verstärkt oder abgeschwächt durch zusätzliche Atmosphäreneffekte, ist der Wissenschaft immer noch nicht transparent. Infolgedessen ist bislang weder in der Fachliteratur, noch in den IPCC-AR eine wissenschaftlich zuverlässige Angabe über die Stärke der atmosphärischen Erwärmung durch anthropogenes CO2 aufzufinden. Bei einigen Fachliteraturstudien werden als Hauptursache sogar völlig andere Effekte als die spektrale Wirkung des anthropogenen CO2 für die jüngste Klimaerwärmung verantwortlich gemacht ]33], [34].

Eine ganz andere und hochwillkommene Wirkung des angestiegenen CO2 in der Luft ist dagegen seine Wachstumsförderung von Pflanzen, insbesondere von Nahrungspflanzen (C3 Pflanzen) [35]. Satellitenbilder zeigen inzwischen das Ergrünen von Wüstenrändern durch zugenommenes CO2 [36] durch diesen „Luftdünger“. Was kaum bekannt ist: Pflanzen benötigen einen Mindest-CO2-Gehalt in der Atmosphäre [37]: Unter 50 bis 100 ppm würden sie verhungern und mit ihnen auch wir Menschen! Mit 280 ppm waren wir nicht mehr sehr weit vom Erlöschen alles heutigen Lebens entfernt. Die Steigerung auf 420 ppm ist zumindest unter diesem Aspekt beruhigend und zu begrüßen.

Die reale Erwärmungswirkung, angestoßen durch anthropogenes CO2 und weiter verstärkt oder abgeschwächt durch zusätzliche Atmosphäreneffekte, ist der Wissenschaft immer noch nicht transparent. Die CO2-Zunahme in der Luft erhöht dagegen messbar den globalweiten Pflanzenwuchs, insbesondere den der meisten Nahrungspflanzen.

 

8.    Was sagt das IPCC zum anthropogenen CO2?

Das IPCC kann, wie aus Kapitel 7 bereits hervorgeht, nur geschätzte Zahlenwerte über die globale Temperatursteigerung durch anthropogenes CO2 angeben, die nicht statistisch abgesichert sind. Die Schlüsselgröße ist dabei die „Klimasensitivität“ (Equilibrium Climate Sensitivity ECS), die angibt, um wieviel °C sich die globale Mitteltemperatur langfristig erhöht, wenn sich das atmosphärische CO2 von jedem Wert aus verdoppelt – was wir, ausgehend von 280 ppm, noch lange nicht erreicht haben. „Jeder Wert“ bedeutet, dass die Temperaturwirkung des anthropogenen CO2 logarithmisch wirkt, oder anschaulicher, jedes neu hinzukommende CO2-Molekül bewirkt eine geringere Erwärmung als sein Vorgänger [38] (Sättigungseffekt).

Das IPCC entnimmt seine willkürlichen ECS-Schätzwerte willkürlich ausgesuchten Fachliteraturstudien, so dass auch Fragwürdiges kaum noch erstaunt- Im AR5 (2013) gibt es die Spanne von 1,5 bis 4,5 °C (Faktor 3) an, im AR6 (2021) setzt es die untere Grenze [39] auf 2,5 herauf und die obere auf 4 °C herunter. Das Kapitel 7 des AR6 wimmelt zudem von anderen Werten, wie 2 bis 5 °C, und es ist schwer, bei diesem Durcheinander noch die Übersicht zu behalten. Bei diesen, meist auf Klimamodellen beruhenden Schätzungen sind auch Szenarien der zukünftigen anthropogenen CO2-Emissionen maßgebend. Dabei ist kritisch anzumerken, dass die IPCC-Emissionsszenarien am oberen ECS-Rand – welche die Medien gerne vorzugsweise zitieren – unrealistisch sind. Sie nehmen an, dass mehr CO2 emittiert wird, als es alle fossilen Reserven der Erde überhaupt hergeben [40]. Und weiter: Fachliteraturstudien nennen untere ECS-Grenzen [34] bis herab zu 0,6 °C, ferner nehmen die in der Fachliteratur angegebenen Klimasensitivitäten proportional ab, je zeitnäher die Studien sind (Abb. 7) [41]. All dies wird jedoch ohne Angabe von Gründen in den IPCC-AR ignoriert.

 Abb. 7: Abnahme der Klimasensitivität ECS, je zeitnaher die betreffenden Fachstudien sind.

Um es deutlich zu wiederholen: Die Klimawissenschaft kennt nicht einmal statistisch abgesicherte Grenzen der Klimasensitivität, so dass sich die Frage nach der sachlichen Begründung von einschneidenden CO2-Vermeidungsmaßnahmen aufdrängt. Direkte Messungen oder gar Experimente zur besseren Kenntnis von ECS sind nicht möglich. Die Komplexität der ablaufenden Mechanismen und die noch unverstandenen Interaktionen von Atmosphäre, Land, Meer und Kryosphäre setzen bis heute unüberwindbare Grenzen.

Die Klimawissenschaft kennt nicht einmal statistisch abgesicherte Grenzen der Klimasensitivität. Die extrem teuren und wirtschaftlich schädigenden CO2-Einsparungen sind daher einer Verhältnismäßigkeitsprüfung zu unterziehen.

 

9.    Wie weit kann das CO2 in der Atmosphäre noch ansteigen?

Medien berichten, dass die Menschheit den CO2-Gehalt der Atmosphäre zukünftig immer weiter erhöhen würde. Das ist falsch. Aber der Reihe nach: Die Ozeane enthalten etwa 40-mal mehr CO2 als die Luft. Zwischen Ozean, Biosphäre und Atmosphäre findet seit jeher ein natürlicher gleichgewichtiger CO2-Austausch statt, so dass bei den relativ wenig veränderten Ozeantemperaturen der letzten 10.000 Jahre vor Beginn der Industrialisierung der CO2-Gehalt der Luft von etwa 280 ppm weitgehend konstant blieb. Dieser Gleichgewichtszustand wurde durch anthropogene CO2-Emissionen langsam zu immer höherem CO2-Gehalt der Luft verschoben, heute liegt er bei 420 ppm. Infolgedessen stieg der CO2-Partialdruck [42] der Luft immer weiter an, der des Ozeans blieb wegen seiner vergleichsweise riesigen Menge CO2 aber konstant. Die Partialdruckdifferenz ist heute so groß, dass der Ozean bereits 25% der CO2-Emissionen aufnimmt, der Pflanzenwuchs ebenfalls 25% und nur noch die Hälfte in die Atmosphäre gelangt [43] (1850 wurde noch alles anthropogene CO2 von der Atmosphäre aufgenommen, s. Abb. 8).

Abb. 8: Quellen und Senken des globalen CO2-Kreislaufs damals (links) und heute (rechts).

Bei zukünftig denkbaren, nicht mehr ansteigenden, also konstanten anthropogenen CO2-Emissionen wird der CO2-Gehalt der Luft – entgegen populärer und medialer Befürchtungen – langfristig ebenfalls konstant bleiben (nur Steigerungen der CO2-Emissionen können nämlich die immer höheren CO2-Partialdruckdifferenzen von Luft und Ozean noch überwinden). Ozean sowie Pflanzenwuchs nehmen dann alle anthropogenen CO2-Emissionen als die einzigen Senken auf. Dieser Zustand bleibt wegen der Kalkbildungsprozesse im Ozean auch bestehen – die Alpen sind beispielsweise zu großen Teilen ein Calciumcarbonat-Gebirge. Alles hier Beschriebene läuft sehr langfristig wegen der großen Trägheit des CO2-Kreislaufs ab, Änderungen der CO2-Emissionen machen sich im CO2-Gehalt der Atmosphäre erst nach Jahrzehnten deutlich bemerkbar. Nebenbei: Der bisherige Anteil der Menschheit am atmosphärischen CO2 plus CO2-Gehalt des Ozeans beträgt gegenwärtig [44] etwa 2%.

Die CO2-Emissionen der Menschheit immer weiter zu erhöhen ist aber infolge begrenzter Vorkommen an Kohle, Erdöl und Gas in der Praxis unrealistisch. Gemäß CO2-Kreislaufmodellen ist ein Ende des CO2-Anstiegs der Luft irgendwo ab ~600 ppm bis hin zu ~1000 ppm zu erwarten, die Unsicherheit ist hier das unbekannte zukünftige CO2-Emissionsverhalten der Menschheit. Bei einer ECS von 1 °C wäre bei 600 ppm die globale Mitteltemperatur um 0,4 °C höher, bei ECS = 2 °C um 1,3 °C. Der CO2-Gehalt der Luft in der Erdgeschichte lag im Übrigen meistens höher als 800 ppm, das Maximum in der frühen Erdgeschichte betrug sogar ~7000 ppm (s. Abb. 2). Dennoch kam es nie zum „Klimakollaps“, unsere Existenz beweist es.

Um den CO2-Gehalt der Luft weiter zu erhöhen, müssen die CO2-Emissionen der Menschheit ebenfalls laufend erhöht werden. Die Begrenztheit fossiler Rohstoffe wird dies in absehbarer Zukunft nicht mehr möglich machen, so dass ein Höchstwert zwischen etwa 600 bis 1000 ppm prinzipiell nicht überschritten werden kann.

 

10.    Klimamodelle

Klimamodelle sind erweiterte meteorologische Modelle. Letztere können das Wetter nur bis etwa 12 Tage vorhersagen. Ursache sind die unvermeidbaren partiellen Differentialgleichungen [45] der Modelle, deren Lösungen langfristig auch auf kleinste Änderungen der Anfangsbedingungen reagieren und schließlich im Ergebnischaos enden. Modellösungen sind nur numerisch mit Längen- und Zeitintervallen möglich, deren Änderungen im Grunde wieder neue Modelle sind, die sich in ihren Ergebnissen untereinander bis zur Unkenntlichkeit unterscheiden können. Klimamodelle geben ohne künstliche Hilfen bis heute nicht einmal die Klimavergangenheit korrekt wieder und sind daher nicht verifiziert. Weitere maßgebende Schwachpunkte sind, dass sie erst bei der Industrialisierung um 1850 beginnen. Somit werden die zeitlich davorliegenden natürlichen Klimaantriebe – die ja nicht schlagartig ab 1850 verschwunden sind – zugunsten des anthropogenen CO2 nicht berücksichtigt. Bevor nicht die natürlichen Klimaschwankungen vor 1850 mit Klimamodellen nachvollziehbar sind, kann Modellzuverlässigkeit für die Jahre danach nicht erwartet werden.

Auch die modernsten Klimamodelle zeichnen sich durch eine so hohe Unsicherheitsrate bei der Wiedergabe des jüngsten Klimawandels aus, dass sie in praktischer Hinsicht wertlos sind [46]. Der Nobelpreis für Physik des Jahres 2021 für drei Forscher wurde für ihre Studien zu chaotischen und scheinbar zufälligen Phänomenen vergeben. Die schwedische Akademie sagte dazu „Die drei Wissenschaftler legten den Grundstein für unser Wissen zum Klima der Erde und wie es die Menschheit beeinflusst“. In der Realität existiert aber gegenwärtig kein solcher praktisch brauchbarer Grundstein, ebenso wenig wie ein funktionierendes Klimamodell. Von Alfred Nobel wurde übrigens konkreter Nutzen von Nobelpreis-Arbeiten gewünscht. Ohne die Verdienste der drei Laureaten schmälern zu wollen, war der Preis von 2021 wohl politisch – nicht der erste dieser Art in der Nobelpreisgeschichte.

 

11.     Die Defizite des IPCC

Wie schon betont, stützt sich die vorliegende Zusammenstellung bewusst auf die IPCC-AR, obwohl diese mit erheblichen Defiziten belastet sind. Die hier geschilderten Klimafakten sind glücklicherweise von diesen IPCC-Defiziten weitgehend unberührt, machen sie aber sichtbar. Um mit den „summaries for policymakers“ zu beginnen, dürfen IPCC-AR-Texte nur von den zuständigen Fachexperten komprimiert werden, nicht aber von Politik oder gar NGOs mit ihren außerwissenschaftlichen Interessen. Nicht zum Gründungsauftrag des IPCC (die Hypothese vom anthropogenen Klimawandel wissenschaftlich zu belegen) gehörende Forschungsergebnisse dürfen ferner in den IPCC-AR nicht heruntergespielt oder gar komplett ignoriert werden.

Das IPCC tut dies dennoch, so beispielsweise mit den Klimaeinflüssen von Sonne und Ozeanzyklen, welche in der Fachliteratur inzwischen etablierte Forschungsthemen unzähliger Fachstudien sind [47]. Dieses IPCC-Defizit betrifft auch den Autor. Eine seiner Klimastudien wird zusammen mit zu ähnlichen Ergebnissen kommenden Arbeiten weiterer Klimawissenschaftler vom AR6 zitiert [48], unmittelbar danach schreibt das IPPC aber ohne jeden Beleg „But such an NAO response to solar forcing remains higly uncertain and controversial…“ und desavouiert damit sogar die Fachexperten, die diese Arbeiten begutachteten [49]. Der jüngste AR6 wird noch fragwürdiger, wenn er sogar die bahnbrechende und allseits anerkannte Arbeit des US-Wissenschaftlers Gerald Bond über natürliche Klimazyklen nicht mehr kennen will, obwohl sie zu den am häufigsten zitierten Klimastudien zählt [50].

Ebenso willkürlich ignoriert das IPCC die vergangenen großen Warmperioden und propagiert stattdessen hartnäckig eine wissenschaftlich längst als falsch widerlegte „Supererwärmung“ der jüngsten Zeit.  Nach IPCC-Vorstellung soll die Temperatur der letzten 2000 Jahre nahezu konstant – ohne römische, Mittelalterwarmzeit und kleine Eiszeit – gewesen sein und sei erst im 20. Jahrhundert steil hochgeschossen. Dieser Temperaturverlauf ähnelt einem umgekehrten Hockey-Schläger, wird daher als „Hockyschläger-Kurve“ bezeichnet und widerspricht allen wissenschaftlich belegten Vergangenheitstemperaturen [51], insbesondere der Gletscherentwicklung (s. Abb. 5). Der absurde „Hockeyschläger“ und sein Festhalten daran ist für das IPCC kein Ruhmesblatt und schadet seiner Akzeptanz. Ebenfalls willkürlich sind die in den IPCC-AR beliebten Meinungsangaben über Wahrscheinlichkeiten wie very likely, likely, medium confidence usw. Ohne statistische Untermauerung lege artis sind sie komplett wertlos. Schlussendlich dürfen IPCC-Klimamodelle wie schon erwähnt die natürlichen Klimaänderungen vor 1850 nicht gänzlich unberücksichtigt lassen.

Trotz unbestrittener Qualitäten ist das IPCC von einer neutralen, wissenschaftlich einwandfreien Berichterstattung zum Klima noch meilenweit entfernt.

 

12.     Advokaten-Wissenschaftler des PIK

Das Potsdamer Institut für Klimafolgenforschung PIK [52] betreibt neben anerkannter Forschungstätigkeit einen offenkundigen Lobbyismus für sozialistische Gesellschaftsumformung [53]. Es verängstigt Bürger mit unzureichend belegten, fast immer nur die Zukunft betreffenden Klimahypothesen, wie beschleunigt ansteigenden Meeresspiegeln, Klima-Kipppunkten, Versiegen des Golfstroms und weiteren mehr – wobei die Medien kräftig unterstützen. Nichts von diesen Schreckgebilden ist in den IPCC-AR aufzufinden! Klimaalarmfachstudien, verfasst von Advokaten-Wissenschaftlern – nicht nur denen des PIK – werden regelmäßig von anderen Fachstudien widerlegt. Gute Sachbücher [29] und Internet-Blogs [54] klären weiter auf. Die Klimakatastrophenvorhersagen der Advokaten-Wissenschaftler blieben leider nicht folgenlos, denn sie ziehen politisch-wirtschaftliche Maßnahmen nach sich, von denen die ganze westliche Welt betroffen ist.

An erster Stelle für uns steht dabei die EU mit ihren planwirtschaftlichen „Maßnahmen gegen den Klimawandel“ [55] – einer Aktionsbezeichnung in direktem Widerspruch zu den Naturgesetzen! Die längst zur Absurdität herabgesunkene Klima-Agenda der EU hat bereits eine erhebliche Schwächung der BIP ihrer Mitgliedsländer im Weltvergleich bewirkt [56]. Direkt geschädigt ist inzwischen die Energieversorgung aller EU-Länder.

Eine wichtige Frage bei all dem Klimagetrommel lautet: „Wem soll man überhaupt noch glauben?“ Haben die Advokaten-Wissenschaftler recht, oder liegen ihre Kritiker richtig? Die Antwort müssen Sie selber finden. Der deutsche Physik-Nobelpreisträger Werner Heisenberg empfiehlt in solchen Fällen, sich vor dem eigenen Urteil über die Wahrheit einer Aussage zuerst die Methoden des Aussagenden anzuschauen [57]. Weiterhin gilt „Nur wer bereit ist, die eigenen Aussagen stets auch in Zweifel zu ziehen, ist ehrlich“. Eine wichtige Erfahrung – Autor ist der Philosoph Soren Kierkegaard – besagt schließlich „Je mehr Leute es sind, die eine Sache glauben, desto größer ist die Wahrscheinlichkeit, dass die Ansicht falsch ist“. Geschichtskundige können dies mit vielen Beispielen bestätigen.

Nichtwestliche Länder mit ihrem überwiegenden Anteil der Weltbevölkerung bevorzugen die Realität und interessieren sich nicht im Geringsten für ein angebliches Klimaproblem, welches den Westen inzwischen um den Verstand bringt. Sie ergreifen vernünftige Schutzmaßnahmen gegen Wetterextreme und nutzen zudem geschickt das Pariser Klimaabkommen [58] für ihren Vorteil aus, um ohne Gegenleistung Geldmittel vom Westen abzugreifen. Wer mag es ihnen verübeln?

Glauben Sie keinem Klima-Alarm ohne eigene Überprüfung! Vielleicht hilft Ihnen dabei auch die vorliegende Klima-Zusammenfassung. Die Forderung, sich seines eigenen Verstands zu bedienen, ist die Kernaussage unseres größten Philosophen Immanuel Kant.

 

Zusammenfassung und Fazit

  1. Die Klimawissenschaft kennt viel zu wenig die Klimawirkung des anthropogenen CO2, sowie der anderen maßgebenden Einflussfaktoren wie Sonne, Wolken, Ozeanzyklen, etc. Trotzdem legt die Politik auf dieser ungenügenden Wissensbasis eine für unsere Volkswirtschaft (und das Pflanzenwachstum) schädliche und jedes Maß von Verhältnismäßigkeit überschreitende CO2-Vermeidungsstrategie fest – die Dekarbonisierung.
  2. Es gibt keinen „Klimanotstand“. Das heutige Klima liegt weit im natürlichen Bereich der Klimavergangenheit. Es gibt kein Klimaphänomen, welches nicht schon wesentlich stärker in der Klimavergangenheit vorkam. Die CO2Konzentrationen in der Erdatmosphäre betrugen schon das Fünfzehnfache von
    heute, ohne dass ein katastrophaler Kipppunkt auftrat, unsere Existenz beweist es. E
    s gibt daher auch keinen Grund, plötzlich höhere Klimagefährdungen zu befürchten, als die schon bekannten natürlichen Gefährdungen der Klimavergangenheit.
  3. Die günstige Wirkung von mehr CO2 in der Luft auf das Pflanzenwachstum und zudem keine messbaren maßgebenden Veränderungen an Extremwetterereignissen in Klimazeiträumen trotz angestiegener CO2-Konzentration der Luft lassen an der Verhältnismäßigkeit der extrem teuren CO2-Einsparungsmaßnahmen berechtigte Zweifel aufkommen.
  4. „Klimaschutz“ im Sinne einer Konstanthaltung des Klimas oder einer Vermeidung von Wetterextremen ist unmöglich; man kann weder das Wetter noch das Klima schützen.

Anmerkungen und pdf zum Herunterladen

Der Verfasser bittet um Verständnis, dass viele interessante Themen notgedrungen dem Hauptziel von Kürze und Verständlichkeit geopfert werden mussten. Die reichhaltigen Quellenangaben sind dafür vielleicht ein Ersatz. Ferner ist zu betonen, dass der Beitrag keine eigenen Hypothesen enthält. Es reicht völlig aus zu zeigen, dass Klimawissenschaft und IPCC nach vielen Jahrzehnten Forschung und Unsummen an Forschungsausgaben immer noch nichts Maßgebendes zum Beitrag des Menschen an Klimaveränderungen beitragen können. Dies ist nicht Fehler der Klimaforschung, sondern Grund ist die Komplexität des Klimageschehens. Insbesondere das IPCC, welches Verständnis vorgibt, ist ein „Kaiser ohne Kleider“.

Der Beitrag kann (hier) als pdf von der Webseite https://www.horstjoachimluedecke.de/publikationen heruntergeladen und beliebig an Freunde und Bekannte verteilt werden.

Zum Autor

Prof. Dr. Horst-Joachim Lüdecke (em.), Diplom-Physiker, war mehrfach als Klima- und Energieexperte zu Bundestags- und Landtags-Anhörungen geladen, ist Autor des Buchs „Energie und Klima“ sowie Mitautor von „Kernenergie Der Weg in die Zukunft“, ist Autor und Mitautor von zahlreichen begutachteten Klimafachpublikationen – die jüngste in „Scientific Reports“ von Nature – und war/ist bei insgesamt sieben internationalen Klimafachjournalen als Reviewer [49] tätig (ehrenamtlich). Mehr Infos unter https://www.horstjoachimluedecke.de/ , erstellt und regelmäßig aktualisiert von dem Unterstützer und Freund Siegfried Hettegger aus der Schweiz.

Danksagung

Für Korrekturlesen, verbesserte Formulierungen und wertvolle Anregungen danke ich ganz herzlich den Herren Detlev Plath (Jurist, Richter), Dr. Andreas Geisenheiner (Dipl.-Ing.) und Klaus Maier (Dipl.-Ing.). Meinem Kollegen Prof. Gernot Patzelt verdanke ich die freundschaftliche Zurverfügungstellung eines zentralen Bildes seines Buchs – hier die Abb. 5.

Wie finden näher Interessierte begutachtete Fachstudien?

Mit Google Scholar: Leitautor, denn Komma und Titel der Arbeit eingeben, meist reicht der Titel allein schon aus. Falls dies erfolgreich war, erscheint ein kurzer „Abstract“. Klickt man auf den Titel der Arbeit (1. Zeile in blau), erscheinen die vom Verlag gelieferten Informationen. Wesentlich interessanter ist dagegen der blaue Button rechts unten mit der Bezeichnung „alle Versionen“. Dieser führt auf alle bisher erschienenen Formen der Arbeit, die mit dem Inhalt der Verlagsversion übereinstimmen. Sind pdf-Versionen darunter, können Sie diese unbedenklich herunterladen und verfügen dann über Text und Bilder der Originalversion, im Allgemeinen aber nicht über die originale Verlagsversion selber.

 

Quellenverzeichnis

[1] https://www.horizont.net/medien/nachrichten/subventionen-so-will-wirtschaftsminister-altmaier-220-millionen-euro-an-die-presse-verteilen-186798?crefresh=1

[2] https://www.faz.net/aktuell/wissen/klima/weltklimabericht-fuer-den-guten-zweck-1433422.html oder auch https://www.faz.net/aktuell/wissen/klima/weltklimabericht-ihr-kennt-die-wahren-gruende-nicht-1433559.html

[3] https://en.wikipedia.org/wiki/Intergovernmental_Panel_on_Climate_Change

[4] https://www.ipcc.ch/about/

[5] https://en.wikipedia.org/wiki/IPCC_Summary_for_Policymakers

[6] https://www.dwd.de/DE/service/lexikon/Functions/glossar.html?lv3=101462&lv2=101334

[7i] https://notrickszone.com/2023/01/20/antarcticas-missing-warming-japanese-syowa-station-shows-cooling-since-1977/

[8] Josef Reichholf (Prof. für Zoologie): Eine Naturgeschichte des letzten Jahrtausends, 2007.

[9] J. R. Petit et al., 1999. Climate and atmospheric history of the past 420,000 years from the Vostock ice core, Antarctica, Nature, 399.

[10] Von Eiszeitalter wird gesprochen, wenn beide Pole vereist sind. Wir leben heute immer noch einem Eiszeitalter.

[11i] J. Veizer et al.,2000. Evidence for decoupling of atmospheric CO2 and global climate during the Phanerozoic eon. Nature, 408(6813), 698, sowie R. A. Berner, 2003. The long-term carbon cycle, fossil fuels and atmospheric composition. Nature, 426(6964), 323.

[12i] https://de.wikipedia.org/wiki/Milankovi%C4%87-Zyklen

[13] N. Caillon et al., 2003. Timing of Atmospheric CO2 and Antarctic Temperature Changes Across Termination III, Science, 299, 1728-1731.

[14] W. Zhang et al., 2022. Holocene seasonal temperature evolution and spatial variability over the Northern Hemisphere landmass, nature communication, 13:5334.

[15] Sebastian Lüning; Wer hat die mittelalterliche Wärmeperiode ausradiert?, Weltwoche Nr. 33.21, sowie unter https://archiv.klimanachrichten.de/wer-hat-die-mittelalterliche-waermeperiode-ausradiert/

[16] H. Wanner et al.,2022. The variable European Little Ice Age, Quaternary Science Review, 287, 1.

[17] „Holländische Winterbilder der kleinen Eiszeit“ unter Bilder in Google.

[18] D. B. Kemp et al., 2015. Maximum rates of climate change are systematically underestimated in the geological record, Nature communications, 6:8890.

[19] https://www.metoffice.gov.uk/hadobs/hadcet/

[20] Gernot Patzelt, Klimazeugen von der Eiszeit bis zur Gegenwart, Hatje Cantz Verlag, 2019.

[21] H. Holzhauser, 2009. Auf dem Holzweg zur Gletschergeschichte. Mitteilungen der Naturforschenden Gesellschaft in Bern, 66, 173-208.

[22] K. Nicolussi, 2009. Klimaentwicklung in den Alpen während der letzten 7000 Jahre. In: K. Oeggland, M. Prast (Hrsg.). Die Geschichte des Bergbaus in Tirol und seinen angrenzenden Gebieten, S. 109–124. Innsbruck: University Press.

[23] L. J. Larocca and Y. Axford, 2022. Arctic glaciers and ice caps through the Holocene:a circumpolar synthesis of lake-based reconstructions, Climate of the past, 18, 3.

[24] IPCC 2013, AR5, WG1, Kapitel 2.6

[25] http://www.bom.gov.au/cyclone/climatology/trends.shtml

[26] H. Krauss und U. Ebel: Risiko Wetter, Springer, 2012.

[27] https://www.ncei.noaa.gov/products/paleoclimatology , ferner B. Stauffer et al., 2003. Discussion of the reliability of CO2, CH4 and N2O records from polar ice cores, Mem. Natl Inst. Polar Res. Spec. Issue, 57, 139-152.

[28] J. G. Canadell et al.,2007. Contribution to accelerating atmospheric CO2 growth from economic activity, carbon intensity, and efficiency of natural sinks, PNAS, 18866-18870.

[29] H.-J. Lüdecke, Energie und Klima, expert-Verlag, 2020 sowie auch F. Vahrenholt und S. Lüning, unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten, Langenmüller Verlag, 2020.

[30] https://crudata.uea.ac.uk/cru/data/temperature/

[31] MSU/AMSU satellite measurements https://www.remss.com/missions/amsu/

[32] https://de.wikipedia.org/wiki/Ockhams_Rasiermesser

[33] https://co2coalition.org/publications/an-assessment-of-the-conventional-global-warming-narrative/ des weltbekannten Klimaforschers Richard Lindzen

[34] F. Stefani,2021. Solar and Anthropogenic Influences on Climate: Regression Analysis and Tentative Predictions, MDPI Climate, 9, 163.

[35] I. M. Goklany, 2015. Carbon Dioxyde The good news, The Global Warming Policy Foundation, report 18.

[36] https://www.cleanenergy-project.de/technologie/wissenschaft/co2-laesst-wuesten-ergruener/ , oder: Treibhausgase: Die Welt wird grüner. Der Spiegel, 29.04.2016, oder: Die Welt ergrünt. Bild der Wissenschaft, Dezember-Ausgabe 2019, 18.11.2019, oder: Überraschende Studie zum Klimawandel: Die Erde ist GRÜNER als vor 20 Jahren. Bild, 27.11.2019.

[37] Moss, D.N., 1962. The limiting carbon dioxide concentration for photosynthesis. Nature, 193(4815), 587-587.

[38] Y. Huang and M. B. Shahabadi, 2014. Why logarithmic? A note on the dependence of radiative forcing on gas concentration, AGU Journal of Geophysical Research: Atmospheres,10.1002.

[39] IPCC_AR6_WGI_SPM_for_Policymakers, A.4.4, S. 11

[40] https://reason.com/2022/02/09/worst-case-climate-change-scenarios-are-highly-implausible-argues-new-study/ , die Originalstudie dazu: https://iopscience.iop.org/article/10.1088/1748-9326/ac4ebf/pdf

[41] F. Gervais, 2016. Anthropogenic CO2 warming challenged by 60-year cycle, Earth-Science Reviews, 155, 129-135.

[42] https://de.wikipedia.org/wiki/Partialdruck

[43] K. M. Strassmann and F. Joos,2028. The Bern Simple Climate Model (BernSCM) v1.0, Geosci. Model Dev., 11, 1887-1908. Ferner auch W. Weber, H.-J. Lüdecke and C.O. Weiss, 2015. A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20.

[44] 140 pp/420 ppm = 0,33 ist heute der anthropogene Anteil von CO2 in der Luft. Großzügig geschätzt geht der gleiche Anteil in den Ozean, (2 x 0,33) / (40 + 1) » 2%.

[45] https://de.wikipedia.org/wiki/Partielle_Differentialgleichung

[46] N. Scafetta, 2022. Advances Testing of Low, Medium, and High ECS CMIP6 GCM Simulations Versus ERA5-T2m, AGU Geophysical Research Letters, 10.1029/2022GL097716. Ferner ist auch die Kritik von Jochem Marotzke (Direktor des MPI für Meteorologie) zu nennen https://www.dw.com/de/sind-klimamodelle-wirklich-verl%C3%A4sslich/a-18219831

[47] H. Svensmark,2019.Force majeure, the Suns’s role in climate change, The Global Warming Policy Foundation, report 33

[48] AR6, chapter3, S. 492. Zitiert wird H.-J. Lüdecke et al., 2020. Decadal and multidecadal natural variability in European temperature, Journal of Atmospheric and Solar-Terrestrial Physics 205, 105294.

[49] https://www.scribbr.de/methodik/peer-review/

[50] G. Bond et al., 2001. Persistent Solar Influence on North Atlantic Climate During the Holocene, Science 294, 1257.

[51] https://notrickszone.com/600-non-warming-graphs-1/

[52] Potsdamer Institut für Klimafolgenforschung, https://www.pik-potsdam.de/de

[53] Neue Zürcher Zeitung, 14.11.201. „Klimapolitik verteilt das Weltvermögen neu“, Interview mit PIK-Professor Edenhofer. Siehe auch https://www.tagesschau.de/wirtschaft/technologie/co2-budget-habeck-101.html

[54] Empfehlenswert sind (in alph. Reihenfolge): https://eike-klima-energie.eu/https://joannenova.com.au/ ;  https://judithcurry.com/ ; https://klimanachrichten.de/https://notrickszone.com/https://scienceofdoom.com/ ; https://www.thegwpf.org/https://wattsupwiththat.com/

[55] https://www.consilium.europa.eu/de/policies/climate-change/

[56] https://de.statista.com/statistik/daten/studie/249045/umfrage/anteil-der-europaeischen-union-eu-am-globalen-bruttoinlandsprodukt-bip/ ; https://de.statista.com/statistik/daten/studie/248161/umfrage/anteil-am-globalen-bruttoinlandsprodukt-bip-nach-weltregionen/

[57] Dieser Ratschlag findet sich im Buch Heisenbergs „Der Teil und das Ganze“.

[58] https://de.wikipedia.org/wiki/%C3%9Cbereinkommen_von_Paris




Atomkraft – Das Tabu, Brauchen wir Kernkraftwerke? Eine Rezension

von Horst-Joachim Lüdecke

Der Autor des Buchs „Atomkraft – Das Tabu, Brauchen wir Kernkraftwerke?“, Prof. Martin Schlumpf, ist Musiker und Komponist. Sein Buch beschäftigt sich mit der friedlichen Nutzung der Kernenergie (Kernkraftwerke) – mit besonderer Betonung der Schweizer Verhältnisse. Es enthält Beiträge – im Buch als Exkurse bezeichnet – von Simon Aergerter, Johannis Nöggerath, Alex Reichmuth, Hans Rentsch, Walter Ruegg und Markus Sauer, welche die Berufe von Mathematiker, Physiker (hier insbesondere mit den Ausrichtungen Kernphysik, Strahlenbiologie, Werkstoff-Physik) bis hin zur Ökonomie abdecken.

Damit ist das Buch schon einmal ein fundamentaler Kontrast zur deutschen Ethikkommission, die keinen einzigen Kernenergie-Fachmann aufwies, sondern nur ein Sammelsurium von komplett fachfremden Leuten. Sogar ein Philosoph und zwei hochrangige Kirchenvertreter waren darunter (hier).

Der Autor der vorliegenden Rezension, Prof. Dr. Horst-Joachim Lüdecke, ist Physiker und hat in Kernphysik vor mehr als 50 Jahren promoviert, als die Nutzung der Kernkraft in Deutschland dabei war richtig Schwung aufzunehmen. Seine Industrietätigkeit und spätere Professur an der HTW Saarbrücken hatte mit Kernenergie dann nichts mehr zu tun. Dennoch ist er Koautor seines Fachkollegen Dr. Ruprecht, dem Miterfinder des Dual Fluid Reaktors DFR (hier), in dem vor 5 Jahren herausgebrachten Sachbuch „Kernenergie, der Weg in die Zukunft“. Beide Bücher, das Buch von Martin Schlumpf in der Schweiz und unseres in Deutschland haben gemein, dass in beiden Ländern große etablierte Verlage anscheinend nicht den Mut aufbringen, neutrale Sachbücher über die Kernkraft in ihre Verlagsprogramme aufzunehmen. Nicht dem grün-roten Mainstream folgend und kühl die Realität schildernd war es in der Schweiz der mutige Verlag Königstuhl (hier), im deutschen Fall der Tvrbuchshop des Verlegers Dr. Holger Thuß. Dass es Fakten über die zivile Nutzung der Kernkraft in weiten Teilen der deutschen wie der Schweizer Bevölkerung bislang schwer hatten, ist bei einer Propaganda von DDR-Qualitäten gegen die Kernkraft verständlich.

Inzwischen scheint sich die Situation zu entspannen. Die Energieknappheit durch jahrzehntelangen Rückbau, Verhinderung und Abschaltung von fossilen Kraftwerken und insbesondere von Kernkraftwerken, aber insbesondere ein für sichere Stromversorgung völlig ungeeigneter und extrem naturschädigender Ausbau von Wind- und Sonnenenergie haben das Blatt gewendet. In der deutschen Bevölkerung hat eine neue Akzeptanz der Kernenergie eingesetzt. Selbst die aktuelle Regierungs-Ampel hat die Realität vermutlich inzwischen zur Kenntnis genommen. Sie kann aber das unbedingt notwendige und langfristig vorausplanende Umschalten nicht vornehmen, weil sich die grüne und rote Wählerklientel immer noch im viele Jahrzehnte erfolgreichen Propaganda-Modus gegen die Kernkraft befindet und nicht so einfach aus dieser Nummer wieder herauskommt.

Es ist zu hoffen, dass sich dies nun nachhaltig ändert – die Welt macht es uns schließlich vor -, wobei das Buch von Martin Schlumpf im gesamten deutschsprachlichen Raum – zumindest aber in der Schweiz – einen wesentlichen Beitrag leisten kann. Die dunklen Zeiten, in denen sich z.B. der deutsche Ravensburger Verlag nicht zu schade war, das Machwerk „die Wolke“ zu drucken, welches sich in fast ans Kriminelle reichenden Faktenverdrehungen und Angstmacherei über die Kernenergienutzung austobt, scheinen sich dem Ende zuzuneigen. Das immer noch gültige Faktum „Über kein Thema wird in Deutschland so gelogen wie über die Nutzung der Kernenergie“ wird hoffentlich nach und nach einer der Zukunft und Realität zugewandten Berichterstattung über die Wahrheit weichen.

Der Inhalt des Buchs von Martin Schlumpf

Aus den sieben Geleitworten des Buchs von Dr. Eduard Kiener (ehem. Direktor des Bundesamts für Energie), Hans-Ulrich Bigler (Präsident Nulearforum und Vorstandsmitglied Nucleareurope), Dr. Irene Aegerter (Physikerin), Didier Sornette (Prof. em. on the Chair of Entrepreneurial Risks at ETH Zürich), Dr. Matthias Horvath (Präsident der Schweizerische Gesellschaft der Kernfachleute), Vanessa Meury (Präsidentin Energie-Club Schweiz) und schließlich Markus Somm (Chefredakeur Nebelspalter.ch) ist nachfolgend das der Physikerin Dr. Irene Aegerter herausgegriffen, weil insbesondere Frauen für die grüne Angstmache anfällig zu sein scheinen und eine weibliche Fachkraft hier am besten für die Vermittelung der Fakten sorgen kann:

„Als Gründungspräsidentin der Women in Nuclear (WiN), die nun schon 30 Jahre alt ist und immer noch wächst und in über 100 Ländern mit über 35.000 Mitgliedern aktiv ist, freut es mich, dass Martin Schlumpf mit seinem Buch den deutschsprachigen Lesern zeigt, dass nur mit Kernenergie der Ersatz der Fossilen Energien erreicht werden kann. Für WiN stand immer der Dialog – vor allem mit Frauen, aber nicht nur – über alle Aspekte der Stromversorgung im Vordergrund: Technische, wirtschaftliche, sicherheitsrelevante aber auch emotionale Themen und vor allen die Ängste vor Radioaktivität und Kernenergie werden angesprochen. Wir versuchen die Menschen zu informieren, etwas, was Martin Schlumpf mit seinen eingängigen Grafiken auch macht. Ich wünsche dem Buch den nötigen Erfolg, damit man auch im deutschsprachigen Raum einsieht, dass Sonne und Wind Kernenergie nicht ersetzen können.“

Nach Beurteilung des Autors der vorliegenden  Rezension werden alle im oben zitierten Inhalt des Buchs angesprochenen Teilthemen gründlich, sachlich korrekt und auch für Laien gut verständlich behandelt. Der Leser erhält ein weitreichendes Gesamtbild über die heutigen Kernkraftwerke und ihre Vorzüge gegenüber anderen Methoden zur Erzeugung elektrischen Stroms. Daher hier keine Buchkritik, sondern nur 6 Anregungen für die nächste Auflage des Buchs:

  1. Kern oder Atom? Im Titel benutzt das Buch den Begriff „Atom“, weiter im Buch wird es dann uneinheitlich. Ein Atom hat eine Elektronenhülle, der Kern besteht aus Nukleonen (Protonen und Neutronen). Fossile Verbrennung betrifft ausschließlich die  Atomhülle, Kernenergie dagegen ausschließlich den Atomkern. Man sollte daher nicht über das Stöckchen der Grünen springen, die bewusst von „Atom“kraftwerken reden, um die Gefährlichkeit einer Atombombe perfide mit Kernkraftwerken gedanklich zu assoziieren. Ein Kernkraftwerk kann aus prinzipiellen physikalischen Gründen niemals explodieren wie eine Atombombe (auch hier ist der Begriff Atom eigentlich falsch). Es sollte stets Kernkraftwerke und Kernkraft lauten, der Begriff Atom sollte hier nicht mehr verwendet werden. Im Buchtitel ist dies wohl nicht mehr zu ändern, im Buchtext aber schon.
  2. Die Windenergie sollte gegenüber der Fotovoltaik stärker thematisiert werden, ist doch ihr Naturschaden ungleich höher.
  3. Eines der wichtigsten Themen – welche Stromerzeugungsmethode verursacht die geringste Anzahl von Opfern pro TWh – könnte gründlicher behandelt werden. Die Grafik auf S. 66 ist schwer lesbar, und die Gegenüberstellung mit CO2-Emssionen unklar, denn CO2 ist ein Inertgas, das nicht tödlich ist. Es gibt dagegen folgende Veröffentlichungen, die sehr genau und komplett das Thema abdecken, wie die Kernenergie in Sachen Gefährlichkeit im Vergleich mit anderen Methoden der Stromversorgung einzuordnen ist. Diese sollten in einer Neuauflage berücksichtigt werden, insbesondere in einem Schweizer Buch sollte der extrem sorgfältige und umfangreiche Bericht des Paul Scherrer-Instituts nicht fehlen:

A) Severe accidents in the energy sector. Paul Scherrer Institut, Bericht Nr. 98, 16.11.1998, https://www.psi.ch/sites/default/files/import/ta/PublicationTab/Hirschberg_1998_ENSAD.pdf

B) Markandya, A., Wilkinsen, P., 2007, Electricity generation and health. Lancet, 370.,  https://philippelefevre.com/downloads/Electricity_generation_and_health_(Lancet_2007_Markandya).pdf

C) P. Preiss, P., Wissel, S., Fahl, U., Friedrich, R., Voß, A., et al., 2013. Die Risiken der Kernenergie in Deutschland im Vergleich mit Risiken anderer Stromerzeugungs-Technologien, https://www.ier.uni-stuttgart.de/publikationen/arbeitsberichte/downloads/Arbeitsbericht_11.pdf

D) Youtube von Prof. Andreaus Pautz https://www.youtube.com/watch?v=O6UOG8AbTxA  ,ferner  https://www.energiestudiengruppe.ch/vortragsunterlagen/

E) Wie viele Opfer forderte Tschernobyl wirklich? ZEIT Online, Hartmut Wewetzer, 21.April 2011, https://www.zeit.de/wissen/2011-04/tschernobyl-gesundheitsfolgen-bericht

  1. Die zu kurze Übersicht mit der Überschrift „Genügend Uran für mindestens 250 Jahre“ auf S. 45 des Buchs sollte besser durch eine vollständigere Übersicht über Uranreserven und Uranressourcen ersetzt werden. Dazu die Analyse aus unserem Buch „Kernenergie, der Weg in die Zukunft“ im Wortlaut – kann gerne von uns übernommen werden – zitieren natürlich vorausgesetzt.

… Vergleichen wir die Zahlen des Uranverbrauchs jetzt einmal mit den Vorkommen. Der Verbrauch eines Menschen bei hypothetischer Vollversorgung mit Uranstrom und dem heutigen Prozedere des Betriebs und der Brennstoffbehandlung beträgt, wie erwähnt, 15 kg Natururan in 80 Jahren, also ca. 0,2 kg/Jahr. Geht man von heutigen Uranpreisen von ca. 100 € pro Kilogramm aus, so kann man bei den aktuellen Vorkommen noch 5,4 Millionen Tonnen kostendeckend fördern. Dies entspricht dann ca. 28 Mrd. Personenjahren. Eine voll nukleare Stromversorgung von 7 Mrd. Menschen könnte damit gerade einmal 4 Jahre durchgeführt werden. Tatsächlich ist der weltweite Durchschnittsverbrauch an Elektrizität nur ein Viertel von dem in Deutschland, und nur 16% sind nuklear erzeugt, so dass bei einem „Business as usual“ die Vorräte 100 Jahre halten würden. Diese Zeitspanne, irgendetwas zwischen 4 und 100 Jahren, ist von Kernkraftgegnern oft als Argument der ohnehin zwangsweisen Aufgabe der Kernenergienutzung infolge Brennstofferschöpfung zu hören.

Könnte man jedoch die restlichen 99% des Urans nutzen, die bei den heutigen Reaktoren wie oben gezeigt nichts mit der Stromerzeugung des Reaktors zu tun haben, so würde sich die Brennstoffreichweite auf 10.000 Jahre erhöhen. Auch arbeiten heutige Reaktoren bei relativ niedrigen Temperaturen und haben deshalb nur einen elektrischen Wirkungsgrad von 35%. Moderne Gaskraftwerke erreichen da bereits 60%, und es gibt kein physikalisches Prinzip, das eine Steigerung des Wirkungsgrads auch bei Kernkraftwerken verbietet. Eine weitere Verdopplung der Reichweite ist also nicht unrealistisch. Man sieht also, dass die Ausnutzung des Urans eine wesentliche Rolle spielt. Dass thermische Reaktoren nur weniger als 1% nutzen, ist prinzipbedingt und kann sich bei diesen Reaktortypen kaum steigern lassen. Bei zukünftigen Kernkraftwerken, die es als Prototypen zum größten Teil bereits gibt oder sogar gab, sieht die Situation dagegen ganz anders aus. Die meisten von ihnen arbeiten mit einem schnellen Neutronenspektrum und können somit das gesamte Uran nutzen. Einige von ihnen haben auch eine höhere Betriebstemperatur und können somit den Wirkungsgrad erheblich steigern. Schon mit diesen Prototypen würde sich die Reichweite des Urans auf 20.000 Jahre erhöhen, wenn man von einer Wirkungsgradverdoppelung ausgeht. Bei einer derart effektiven Nutzung spielen die Brennstoffkosten nur noch eine untergeordnete Rolle. Man kann dann Uran auch aus Meerwasser extrahieren], was die Förderkosten nur etwa verdreifacht, aber vieltausendfach größere Ressourcen erschließt.

Die Brennstoffreichweite würde sich dabei auf Hunderte Millionen Jahre erhöhen!

Als Argument gegen Kernkraft sind die zu geringen Uranvorkommen daher nicht geeignet. Wir haben nämlich gesehen, dass die Brennstoffreichweite vom Verbrauchs-Szenario und von den Reaktortypen abhängt. Die Argumentation bei solchen Diskussionen wird dabei sogar oft noch auf den Kopf gestellt: Kernkraftgegner führen „wenige Jahre“ an, nehmen dabei aber ein nukleares Vollversorgungsszenario an, das sie selber gar nicht wollen. Befürworter zitieren gerne die „100 Jahre“, nehmen dabei aber implizit das heutige Szenario mit nur magerem nuklearem Ausbau an, den sie ja gerne erhöhen wollen. Dabei ist hier alles sehr einfach: Das zentrale Problem ist die viel zu schlechte Ressourcennutzung heutiger Reaktortypen. Es ist ein Problem, nach dessen Lösung man nicht mehr zu suchen braucht. Diese Lösungen existieren nämlich bereits seit längerer Zeit als real laufende Prototypen und Demonstrationsanlagen.

  1. Etwas mehr Zitate aus der Fachliteratur können nicht schaden.
  2. Die Abbildungen im Buch könnten noch als Abb.xx durchnumeriert werden.

Wir wünschen dem Buch von Martin Schlumpf den besten Erfolg!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Beide Bücher stellen die Fakten einwandfrei und allgemeinverständlich dar. Das Schweizer Buch