Generisches Statement zum Stand der Klimaforschung in Hinblick auf die Belastbarkeit der CO2-Modellierungsvorhersagen und der daraus gezogenen wissenschaftlichen und politischen Schlussfolgerungen[1]“

Dr. rer nat Philipp Lengsfeld, re:look climate gGmbH

Dipl-Ing Michael Limburg, EIKE

Hauptproblem: Die wissenschaftliche Begründung für die Forderung nach Dekarbonisierung – CO2-These basiert nur auf Modellierungen und ist als Haupterklärung vermutlich falsch

Die wissenschaftliche Großkontroverse „Klima“ fängt schon bei der Bezeichnung an: Durch die Bezeichnung als „menschgemachter Klimawandel“ (anthropogenic global warming, AGW) wird die hier in Rede stehende CO2-Hypothese schon inhaltlich vorgeprägt. Eigentlich müsste sie gemäß des wissenschaftlichen Kerns im Deutschen korrekterweise „Durch von Menschen eingebrachte zusätzliche Treibhausgase verursachte zusätzliche Erderwärmung“ heißen – zur wissenschaftlich-argumentativen Vereinfachung benutzen wir in diesem Papier den Terminus CO2-Erdwärmungs-These.

Die CO2-Erdwärmungs-These ist ein rein Modell-basiertes Konstrukt. Die Modelle fußen auf Annahmen, die im Kern von den komplizierten, mindestens 18 Grob-Prozessen, die an einem Energiegleichgewicht der Atmosphäre beteiligt sind und die alle mit und untereinander in Wechselwirkung stehen, überdies in Zeitskalen von wenigen Tagen bis > 100.000 Jahren (im Anhang befindet sich in Abb. 1 eine Übersicht), nur einen einzigen, nämlich die atmosphärische Zusammensetzung und darin wieder den CO2 Anteil[2] als Hauptmechanismus (Treibhausgas-Annahme) voraussetzen, der dann in den komplexen mathematischen Klimamodellen zu Erwärmungsszenarien gerechnet wird.

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. Automatisch generierte Beschreibung

Abb. 1: Qualitative Darstellen der Hauptprozesse der atmosphärischen Energiebilanz nach W.Soon

Alle momentanen Modelle leiden aus unserer Sicht an dieser fundamentalen Schwäche: Der angenommene zentrale Einfluss des CO2 geht als Hauptmechanismus in die Modellierung ein und damit wird über die Annahme der Modellierung schon deren Ergebnis vorweggenommen. Das ist ein Zirkelschluss.

Und das auch unabhängig von der Frage, ob der zu Grunde liegenden Mechanismus „Treibhaus-Effekt“ und dessen abgeleitete Konsequenz „Zunahme des Treibhaus-Effekts bei Zunahme der Treibhausgaskonzentration“ im Kern korrekt ist oder nicht. Wir können für die hier vorgelegte Argumentation durchaus annehmen, dass ein merkbarer temperature forcing effect bei Verdoppelung des CO2-Gehalts in der Luft existiert, obwohl wir schon anmerken, dass es ernstzunehmende wissenschaftliche Positionen gibt, die sagen, dass ein Treibhaus-Effekt für die Erklärung der Grunddaten des Weltklimas, insbesondere der globalen Mitteltemperatur nicht notwendig ist.

Unser Hauptkritikpunkt ist ganz eindeutig, dass während der Einfluss des CO2 über verschiedene diverse Szenarien (RCP2.6-RCP8.5) variiert wird, mit teilweise hanebüchenen sozio-ökonomischen Annahmen, werden andere (meist natürliche) Klimamechanismen wenig oder gar nicht in der momentanen Modellierung beachtet. Auf diese Weise entsteht zu einem komplexen Thema eine total verengte Diskussion, die sich praktisch nur noch um CO2-Anteile dreht.

CO2-Thesen Dramatik zerfällt bei normaler Verweildauer von CO2 in der Atmosphäre

Aus unserer Sicht ist darüber hinaus eine der zentralen Kernschwächen der CO2-Modellierungen die angenommene lange Retentionszeit für CO2 in der Atmosphäre – die momentan akzeptierte Denkschule ist das sogenannte Berner Modell. Durch eine angeblich sehr lange Verweildauer von Teilen des CO2 in der Atmosphäre (in der Kommunikation werden gerne drastische Vokabeln, wie „Endlagerung“ oder „Verklappung“ von CO2 in der Atmosphäre bemüht) ergibt sich bei konstanter weiterer Emission ein exponentieller Anstieg des CO2 in der Atmosphäre – je nach Feintuning prognostizierten die Wissenschaftler vom „Berner Modell“ eine CO2-Konzentration von 1000ppm in der Atmosphäre im Jahr 2100. Das wäre ein 2.5-fach höherer Wert als heute (420 ppm) und der dreifache Wert des CO2-Niveaus der Nachkriegszeit. Die Retentionsannahmen des Berner Modell werden in der Wissenschaft kontrovers diskutiert – die entgegengesetzte, einfache Annahme, die sich auch mit Messdaten aus französischen Atomtests deckt, geht von einer Halbwertszeit des CO2 in der Atmosphäre von 25-40 Jahren aus – in diesen Rechnungen sättigt sich die CO2-Konzentration bei gleicher anthropogener Emission im Jahre 2100 bei z.B. 500 ppm (Abb. 2 im Anhang verdeutlicht diesen Effekt im direkten Vergleich).

Zwischen diesen beiden Extremannahmen gibt es diverse Schattierungen gemäß Annahmen der Senken und ihrer Leistungen, deren prognostizierte CO2-Anstiege dann natürlich ebenfalls zwischen diesen beiden Extremvarianten liegen.

Selbstredend verändern sich die Erwärmungsprognosen der Modellierungen in den unterschiedlichen Szenarien drastisch, selbst wenn alles andere unverändert bleibt.

Erstes Fazit:

Die CO2-These ist ein Ergebnis von Modellierungen, deren Output schon über den Input festgelegt wurde. Das ist ein Zirkelschluss. Und für Modellierung von Klima absolut unterkomplex.

Abb. 2: CO2-Projektionen gemäß verschiedener Modellannahmen führen im Jahr 2100 zu völlig unterschiedlichen Ergebnissen.

Aber selbst, wenn man alle anderen Annahmen akzeptiert (was wir definitiv nicht tun), bleibt von der CO2-Erwärmung wenig bis nichts, wenn die „Endlagerung“s-Annahme des Berner Modells sich als falsch erweisen sollte (wovon wir fest überzeugt sind). Die CO2-Thesen Dramatik fällt bei normaler Verweildauer von CO2 in der Atmosphäre praktisch in sich zusammen.

Unteraspekt: Anteil des menschlichen CO2 am Anstieg der Keeling-Kurve

Ein großer Verdienst der Klimaforschung der letzten Jahrzehnte ist die systematische Erhebung des CO2-Gehalts in der Atmosphäre vor allem durch die Messstation in Mauna Loa, Hawai, die sogenannte Keeling-Kurve – seit Beginn der Messung 1958 ist der CO2-Gehalt in der Atmosphäre von 315 ppm auf momentan 425 ppm gestiegen – ein ca. 100 ppm-Anstieg in 70 Jahren.

Gemäß der momentan akzeptierten Lehrmeinung wird angenommen, dass praktisch der gesamte Anstieg der Keeling-Kurve seit Start der Messungen menschengemacht sei (also durch die Verbrennung fossiler Brennstoffe verursacht wird). Auch diese These wird aber in Frage gestellt. So vermutet unter anderem der deutsche Wissenschaftler Hermann Harde, dass der Anteil des durch die Menschen in die Atmosphäre eingebrachten CO2 am Anstieg der Keeling-Kurve maximal bei 5 Prozent liegt.

Dass sich der unbestrittene Einbruch in der CO2-Emission im Zuge der globalen Covid-Krise nicht wirklich in der Keeling-Kurve abbildet, ist ein weiterer Hinweis, dass der Anteil der anthropogenen Emission am Keeling-Kurven-Verlauf überschaubar sein dürfte.

Ein Bild, das Text, Zeitung, Papier, Zeitungspapier enthält. Automatisch generierte Beschreibung

Abb. 3: Meyers Konversationslexikon 4. Auflage, 1885-1890. 2. Band: Atlantis – Blatthornkäfer, S.12

Und wie sehr viele Lehrsätze in der momentanen Klimaforschung ist auch diese vermeintliche Gewissheit überhaupt nicht gesichert: Sind die CO2-Werte der Neuzeit (310-450 ppm) im Vergleich zum z.B. dem 19 Jahrhundert überhaupt erhöht? Die Enceclopedia Britannica, aber auch Meyers Konversationslexikon listeten Ende des 19. Jahrhunderts bereits CO2 Anteile von rd. 400 ppm auf mit einer Schwankungsbreite von 370 bis 620 ppm (ein entsprechender Beleg ist im Anhang als Abbildung 3 angefügt).

Die momentane Lehrmeinung postuliert stattdessen, dass der Neuzeit-CO2-Wert drastisch oberhalb eines CO2-Korridors der letzten 800 tausend Jahre läge und versucht die CO2-These mit einer konstruierten CO2-Hockeyschlägerkurve glaubhafter zu machen. Dabei handelt es sich um eine Aneinanderreihung von Datensätzen aus Eisbohrkernen für die Paleodaten, Übergangsdaten und aktuellen Messdaten. Wir beschäftigen uns mit dieser Hockeyschlägerkurve weiter unten etwas ausführlicher, postulieren aber, dass deren Belastbarkeit massiv angezweifelt werden muss.

Zweites Zwischenfazit:

Obwohl sich alles um CO2 dreht ist, sind viele fundamentale Fragen, wie die Retentionszeit, der Vergleich zu Paleodaten oder auch der Anteil der fossilen Verbrennung an dem in den letzten 70 Jahren gemessenen CO2-Anstieg in der Atmosphäre überraschend unklar.

Echte CO2-Thesen Dramatik entsteht durch Kopplung mit feedback und Kipppunkten

Die wahre Dramatik der CO2-Szenarien ergibt sich durch die Hinzunahme von diversen feed back-Verstärkungsmechanismen (vor allem über Wasserdampf, einem wesentlich potenteren Treibhausgas, als das CO2) und durch die Kombination mit den sogenannten Klima-Kipppunkten.

Ein zentraler Beitrag der deutschen Klimaforschung, insbesondere des eigens für die Thematik gegründeten PIK, dem Potsdamer Institut für Klimafolgenforschung ist die Einbringung des Konzepts „Kipppunkte“ in die internationale Klimadiskussion – „Kipppunkte“ sind hier irreversible dramatische Prozesse, die theoretisch durch steigenden Global- Temperaturen ausgelöst werden könnten. Diese Kipppunktszenarien haben dramatische Wirkung. Zum Beispiel im Szenario „Schmelzen des Grönland-Eises“ oder „Schmelzen signifikanter Teile des antarktischen Eisschilds“ führt zu bekannten Meeresanstiegs-Schreckensszenarien – 1986 „prophezeite“ der Spiegel basierend auf einem vermutlich fehlinterpretierten Thesenpapier des Arbeitskreises Energie der Deutschen Physikalischen Gesellschaft: Im Jahr 2040 sind wichtige Metropolen, wie New York, Rom, Hamburg vom Meer verschlungen.

Wir haben also eine Dreifach-Steigerung in den Modeliierungs-Schreckensszenarien: Mit extremen sozio-ökonomischen Maßnahmen wird der Treibhausausstoß hochgerechnet, durch Schärfung der feedback-Effekte wird der Temperaturanstieg der Modelle forciert und schlussendlich wird mit der Kombination mit Kipppunkt-Szenarien eine absolut düsteres Zukunftsbild gemalt. „hot house earth“/“Heißzeit“ nennen das PIK und ihre engsten Miststreiter diese Art Endzeitszenarien.

Zum Glück gibt es auch in der deutschen Wissenschaft besonnenere Stimmen: Prof. Jochem Marotzke, Direktor des Hamburger Max-Planck-Institut für Meteorologie und in dieser Position einer der wichtigsten Klimaforscher des Landes hat sich jedenfalls mehrfach deutlich gegen die Überbetonung des Themas Kipppunkte positioniert.

Aus unserer Sicht handelt es sich bei den Klima-Kipppunkten um sehr geschickte Wissenschaftsangstmache praktisch ohne Relevanz, ganz sicher nicht für einen sinnvollen wissenschafts-politischen Referenzrahmen von 75 Jahren, also bis 2100.

Zwischenfazit CO2-These:

Die CO2-These ist eine rein Modell gestützte Konstruktion, die ein Zirkelschluss ist (es wird das als Voraussetzung in die Modellierung reingesteckt, was dann als Ergebnis rausmodelliert wird). Trotz jahrelanger Forschungen sind fundamentale Basics (z.B. Retentionszeit, Anteil des Menschen am Anstieg der Neuzeit, Vergleich zu Paleodaten) viel unklarer, als in der Öffentlichkeit angenommen.

Die eh schon aufgebauschte Dramatik der CO2-Szenarien entsteht vor allem durch die Kipppunkte- Ergänzung (die nicht Teil der Modellierungen sind) – letztlich ist die CO2-Weltungergangs-These ein Angst-Modellierungs-Turm auf extrem wackeligen Grundbausteinen – auch nur ein loser Stein darin lässt alles in sich zusammenfallen. Und das ist im Kern eine sehr gute Nachricht.

Schlussfolgerung für „Dekarbonisierung“s-Strategien: Mitigation hinfällig

Es gibt aus unserer Sicht keine Rechtfertigung für eine Dekarbonisierungspolitik. Die sogenannte „Mitigation“s-Strategie ist insgesamt hinfällig.

Konkret ist das Konzept der „Carbon-Budgets“ (angeblich noch verbleibenden Restmenge an CO2, die noch in die Atmosphäre kommen kann damit die politisch vorgegebenen Erwärmungswerte nicht überschritten werden) hinfällig. Die dazugehörigen Doomsday-Uhren, welche die verbleibende Zeit bis zur Erschöpfung des „Carbon-Budgets“ runterzählen („time left until CO2 budget is depleted“, z.B. des MCC Berlin) und Stand Dezember 2024 für das sogenannte 1.5°C-Ziel momentan noch ca. 4,5 Jahre ausweisen, können getrost abgestellt werden.

CO2-Senkungsziele, CO2-Steuern, CO2-Zertifikatsmodelle sind ohne wissenschaftlichen und damit letztlich auch politischen Gegenwert und müssen umgehend eingestampft werden.

Die technisch schon ausgereifte CCS-Technik (CO2-Abscheidung z.B. bei Kohleverbrennung und deren „Endlagerung“) ist weder notwendig noch zielführend und darf politisch nicht weiterverfolgt werden.

Attributionsforschung ohne Basis

Eine aktuelle Spielwiese der Klimamodellierung und der Klimawissenschaftspolitik ist die sogenannte Attributionsforschung, in welcher versucht wird, den Anteil von CO2 (und damit z.B. eine historische Schuld von Hauptemittenten der letzten 100 Jahre) an regionalen Wetterkatastrophen zu extrahieren – selbstredend bleibt von einer Attribution in der Jetztzeit nichts übrig, wenn sich die CO2-Modell-Katastrophenszenarien der Zukunft in Luft auflösen.

Intervention/Geoengineering ungerechtfertigt und brandgefährlich

Wenn es für „Dekarbonisierung“ und Mitigation keine Rechtfertigung gibt, dann sind die noch viel extremeren „Intervention“s-Strategien („Geoengineering“), insbesondere die Entnahme von CO2 aus der Luft und jegliche Abscheide- und Einlagerungstechniken unnötig und falsch. Alle diese Konzepte sind nicht nur unbezahlbar, sondern bergen massive Risiken für nicht intendierte negative Effekte.

Anpassung, „Adaptation“ ist die richtige Klima-Strategie

Anpassung, „Adaptation“, eine kluge „wait-and-see-and-better-understand-and-prepare-where-necessary“-Strategie ist dagegen absolut sinnvoll und zeitgemäß. Anpassun, „Adaptation“ ist die richtige „Klima“-Strategie – in jedem Land, in jeder Region.

Nebenaspekt-Probleme:

T-Hockeyschlägerkurve ohne Substanz

Michael Mann und Mitarbeiter sind die Urheber der wohl bekanntesten Klima-Hockeyschlägerkurve – über den Zeitraum der vergangenen 1000 Jahre (später 2000 Jahre) wurden Temperaturproxies von dieser Arbeitsgruppe so zusammengestellt und mit aktuellen Messdaten kombiniert, so dass der Eindruck eines dramatischen Hockeyschlägerverlaufs entsteht – der T-Verlauf ist über Hunderte Jahre konstant (bzw. sogar leicht fallend), um dann mit der Industrialisierung dramatisch anzusteigen – quasi die Visualisierung der CO2-Erwärmungsthese – die zwischenzeitlich sehr berühmte Grafik zierte auch mal das Deckblatt eines IPCC-Berichts (TAR 2001).

Mittlerweile ist diese aus der Club-of-Rome-Schule übernommene Mann-Hockeyschlägerkurve völlig entzaubert – ohne aktuelle Temperaturmessungen würde es überhaupt keinen auffälligen Verlauf geben.

Nebennebenaspekt: Mit der Hinfälligkeit der Hockeyschläger-Originalkurven entfällt natürlich auch jegliche Dramatik bei den einige Jahre sehr beliebten Kult-T-Stripes (ein solcher T-Stripe ziert wohl immer noch den Hauptbahnhof von Cottbus). Auch die Temperaturstreifen auf Straßenbahnen und Kaffeetassen können getrost eingemottet werden.

CO2-Hockeyschlägerkurve unüberprüft

Es gibt eine ähnlich dramatisch aussehende Hockeyschlägerkurve für den CO2-Anstieg, allerdings basierend auf ganz anderen Daten und von Auswertungen anderer Gruppen – auch hier ergibt sich der Hockeyschlägerverlauf nur durch die Kombination verschiedener Datensätze aus völlig unterschiedlichen Quellen (Eisbohrkernen, kombiniert mit Firneis, kombiniert mit Atmosphärendaten) – diese CO2-Kurve ist aus unserer Sicht unzulässig, weil hier die Datensätze verschiedener Herkunft zusammengespleist wurden.

Es gibt aber auch an den Eisbohrkernmessungen aus der Antarktis (und in Grönland) massive wissenschaftliche Kritik, die aber, vielleicht weil sie schon länger zurück liegt, aus der momentanen Diskussion fast komplett verschwunden zu sein scheint. So zeigte bspw. Jaworowski um 1992, dass ca. 20 Prozesse biologischer, chemischer und physikalischer Art den CO2 Gehalt in den Eisbohrkern-Proben dauerhaft beeinträchtigen. Jaworowski äußert gut unterlegte Zweifel an den grundsätzlichen Charakteristika der CO2-Eisbohrkerndaten, insbesondere an den Absolutwerten (Schwankungen in den letzten 800.000 Jahren immer nur zwischen 180 und 280 ppm) und anderen Kerncharakteristika.

Es ist mehr als unwahrscheinlich, dass der dramatische CO2-Kurven-Hockeyschlägerverlauf einer kritischen Überprüfung Stand hält.

Klima hat sich immer gewandelt

Was wie eine Banalität klingt und deshalb angstkommunikatorisch leicht skandalisiert werden kann, ist aus unserer Sicht die wissenschaftliche Wahrheit: Das Klima auf der Erde hat sich immer verändert, es gab Temperatur- und CO2-Veränderungen. Es ist nicht nur alles andere als eindeutig, sondern aus unserer Sicht sogar ziemlich wahrscheinlich, dass wir in den letzten 100 Jahren überhaupt keine irgendwie ungewöhnliche Entwicklung von Temperatur oder CO2 beobachten.

Für die Zahl der Extremwetterereignisse ist dies ja längst belegt – es hat hier keinen signifikanten Trend in den letzten Jahrzehnten gegeben.

Es gibt keinen Klima-„Konsens“ in der Wissenschaft

Eine geschickt konstruierte Fata Morgana ist der sogenannte Klima-„Konsens“.

Braucht Wissenschaft für den Erkenntnisfortschritt überhaupt einen „Konsens“? Eher im Gegenteil, etablierte Lehrmeinungen werden von disruptiver wissenschaftlicher Erkenntnisgewinnung immer wieder in Frage gestellt und müssen sich immer wieder neu bewähren – deshalb ist die Konstruierung eines vermeintlichen „Konsens“ aus unserer Sicht eine wissenschafts-kommunikative und wissenschafts-politisch ziemlich fragwürdige Aktion.

Eine Wissenschaft im „Konsens“ ist für uns eine tote Wissenschaft. Die Lehrmeinung verkommt zu einer Dogmatik und Ideologie oder im extremsten Falle zu einer (Ersatz-)Religion. Wir scheinen davon bei „Klima“ nicht mehr weit entfernt: Die Öffentlichkeit und die Wissenschaft sollen die CO2-Thesen „glauben“, Wissenschaftler, die einer normalen wissenschaftlichen Aufgabe nachgehen, nämlich der konstanten Herausforderung der jeweils etablierten Lehrmeinung, werden als „Leugner“ diffamiert. Wer als Wissenschaftler echte Fakten und Daten „leugnet“, ist kein Wissenschaftler – der Vorwurf der „Leugnung“ ist letztlich ein Anschlag auf die Wissenschafts- und Forschungsfreiheit.

Aber egal ob man einen „Konsens“ überhaupt braucht: In jedem Falle gibt es einen Klima-„Konsens“ in der Wissenschaft nicht: Sowohl der geschickt über die Analyse von Abstrakts wissenschaftlicher Veröffentlichungen konstruierte Oreskes-Cook-Konsens (das ist der berühmte 97.1%, mittlerweile 99%-Konsens) ist substanzlos, als auch der eher uninspirierte „Konsens“ der mittels Suggestivfragen-„Surveys“ und geschickter Filterung daneben gestellt wurde.

Dass der IPCC als politisch kreiertes Gremium von selektiv berufenen Wissenschaftlern keinen „Konsens“ ermitteln kann, ist dagegen selbsterklärend. Wer trotzdem darauf besteht, dass der IPCC einen „Konsens“ repräsentiert erliegt dem nächsten Zirkelschluss, denn das explizite Mandat des IPCC war und ist es, den anthropogenen Klimawandel zu analysieren.[3]

Rolle der Industrie heillos überzogen (Behauptung systematischer Desinformationskampagnen)

Auch die angebliche jahrzehntelange Desinformationskampagne der Ölindustrie ist im Kern eine geschickte Konstruktion der gleichen Arbeitsgruppe, die auch Urheber des Klima-„Konsens“-Claims ist („#exxonknew“). Diese konstruierte Kampagne gab es so nicht.

Eine Zögerlichkeit und Unsicherheit von Industrie im Umgang mit NGO-Vorwürfen und Kampagnen und einem sich plötzlich massiv gegen sie wendenden gesellschaftlichen und politischen Klima und ein gerade in der Vergangenheit stark ausgeprägter Hang zur Intransparenz und Schönfärberei ist dagegen ein Charakteristikum von Industrie alter Prägung und triff sicherlich auch auf die „fossile“ Industrie der Vergangenheit zu. Leider kann dieser Mechanismus momentan auch wieder massiv bei der PV- und Windindustrie beobachtet werden. Moderne Industrie ist transparent, compliant, unterstützt und fördert gute Wissenschaft und hoffentlich auch vernünftige Regulatorik.

Was es aber auf jeden Fall gab, war der Club of Rome und sein sehr wirkmächtiger „Grenzen des Wachstums“-Angst-Untergangs-Modellierungen-Klassiker (Träger des Friedenspreises des Deutschen Buchhandels 1973).

Und es gab und gibt jahrzehntelangen, systematischen Aktivismus von Teilen der Wissenschaft (ein prominentes Beispiel sind die Professoren Schellnhuber und Rahmstorf vom PIK) und massive, mittlerweile gesamtgesellschaftliche kommunikative Propaganda, insbesondere von Seiten der Grünen/Linken und der Wind und Solarindustrie.

Es gibt anthropogene Einflüsse auf Wetter und Klima, die aber regional wirken

Es ist völlig unstrittig, dass es anthropogene, lokale, regionale Klima- und Wetteränderungen gibt und gab. Eine berühmtes Lernbeispiel ist die Katastrophe durch die Zerstörung des Aralsees (eines Binnenmeers) durch exzessive Wasserbewirtschaftung der anliegenden Wüstengebiete in Usbekistan (Baumwolle) und Kasachstan (Reis) in der Sowjetzeit, die auch zu einer massiven Änderung des regionalen Klimas führte.

Auch in Mitteleuropa haben wir durch massive Änderungen in Luftverschmutzung Einflüsse auf das Wetter: Waren die 50-80iger Jahren durch massive Smogereignisse gekennzeichnet, so hat die Reduzierung der Luftverschmutzung zu einem massiven Anstieg der Sonnenstunden geführt – dies in Kombination mit massiver Landnutzung (z.B. urbane Räume, Straßen- und Autobahninfrastruktur, aber neuerdings auch riesige Solarfelder) hat durchaus erheblichen Anteil daran, dass es in Deutschland in den letzten Jahren lokal wärmer geworden ist.

Wichtig ist auch der Urban Heat Island Effekt, der recht gut erforscht ist. Auf Grund des globalen Bevölkerungsanstiegs und der starken Urbanisierung kam es zu einem massiven Anstieg der Zahl lokaler Wärmeinseln in deren Zentren teilweise deutlich erhöhte Temperaturen herrschen. Da inzwischen ca. 50 % der heute mehr als 8 Mrd Menschen in urbanen Räumen leben, beeinflusst, bzw. erschwert dieser Effekt auch massiv die systematische Dokumentation der Temperatur in der nicht vom Menschen massiv überformten Natur der jeweiligen Region.

Einfluss auf regionales Wetter- und Klima durch massiven Windkraftaufbau?

Keine Energieerzeugung ist ohne Nebeneffekt („keine Wirkung ohne Nebenwirkung“) – es gibt deshalb keine „grüne“ Energie.

Auch die sehr flächenintensiven, ineffizienten PV- und Windkraftanlagen haben Einfluss auf die lokale Umgebung – im Falle von Wind ist dieser Effekt in Europa aus unserer Sicht noch völlig unterbewertet – das massive Ernten von Wind führt zu lokalen und regionalen Windabnahmen, deren Wetter- und Klimafolgen (z.B. lokale, regionale Dürre oder auch Starkregenereignisse) momentan noch viel zu wenig beachtet werden – aber mit relativ wenig Aufwand modelliert werden könnten.

Für ganz besonders Ängstliche: „Adaptation“ ist anderes Wort für klugen Katastrophenschutz

Für Staaten oder Staatengemeinschaften, die immer noch an ein Restrisiko „Erderwärmung“ „glauben“ empfiehlt sich die konsequente Anwendung der generische Strategie der Anpassung, die folgende fundamentale Aspekte aufweist: Adaptation ist (nach S. Koonin)

  • Effektiv (weil auf die jeweilige Situation -örtlich u zeitlich- angepasst)
  • Agnostisch (es ist egal ob Klimaänderung menschgemacht oder natürlich ist)
  • Proportional (z.B. höhere Dämme in konkret gefährdeten Gebieten)
  • Lokal
  • Autonom (es kann unabhängig von anderen Maßnahmen passieren)

Klimaforschung sollte sich fokussieren

Klimaforschung ist momentan massiv überfördert. Wirklich gute regionale und lokale Wettervorhersagemodelle sind wissenschaftlich und gesellschaftlich relevant, müssen aber alle natürlichen und anthropogenen Einflüsse abbilden (z.B. exzessiven Windausbau). Grundlagenforschung zu Klimafragen ist genauso interessant und relevant wie jede andere Grundlagenforschung.

Anhang:

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. Automatisch generierte Beschreibung

Abb. 1: Qualitative Darstellen der Hauptprozesse der atmosphärischen Energiebilanz nach W.Soon

Abb. 2: CO2-Projektionen gemäß verschiedener Modellannahmen führen im Jahr 2100 zu völlig unterschiedlichen Ergebnissen.

Ein Bild, das Text, Zeitung, Papier, Zeitungspapier enthält. Automatisch generierte Beschreibung

Abb. 3: Meyers Konversationslexikon 4. Auflage, 1885-1890. 2. Band: Atlantis – Blatthornkäfer, S.12

  1. Dieses Papier ist ein forschungspolitisches Thesenpapier und verzichtet bewusst auf komplette Referenzen – alle Quellen sind für die Fachleute identifizierbar und überprüfbar
  2. Weitere Treibhausgase werden in dieser Diskussion als CO2-Äquivalent behandelt und nicht in Tiefe separat diskutiert.
  3. “The role of the IPCC is to assess on a comprehensive, objective, open and transparent basis the scientific, technical and socio-economic information relevant to understanding the scientific basis of risk of human-induced climate change, its potential impacts and options for adaptation and mitigation.” (PRINCIPLES GOVERNING IPCC WORK, approved 1998, last amended 2013)

 




EIKE wünscht allen Leserinnen und Lesern eine gesundes, erfolgreiches und fröhliches Neues Jahr

Wünschen kann man sich und allen anderen vieles. Trotzdem die Aussichten im Neuen Jahr  – was dieses Land betrifft – eher schlecht sind, gibt es auch gute Nachrichten. Dazu gehört, dass Präsident Trump am 20. Januar 2025 sein Amt antritt, und neben vielen vielen anderen Dingen, die Klimabesessenheit der anderen Länder nicht nur für sich aufkündigt sondern auch durch Verlassen internationaler Verträge – wie bspw. die Pariser Klimaübereinkunft, aber auch dem Finanzierungsende eine Fülle von Klimaverträgen-  diesen Leuten die Finanzgrundlage entziehen wird. Dass durch sein Handeln auch die Ukraine und damit direkt und indirekt auch Deutschland profitieren wird, sei auch -und nicht am Rande – erwähnt.

Man hört außerdem, dass Trump vorhat aus der WHO auszutreten, und wenn die UNO – gefüllt mit diktatorischen Staaten, die alles andere als „vereint“ sind, und von einem Sozialisten geleitet wird, der die Weltherrschaft anstrebt-  nicht damit aufhört, dann, so hört man, wird er auch die UNO verlassen.

In Argentinien folgt Milei seinem Beispiel und  die Versorgung mit fossilen Energien und damit die Wirtschaft profitiert immens davon. Immerhin ist der Strompreis in Argentinien bei

0,019 USD pro kWh. Der weltweite Durchschnittspreis liegt bei 0,152 USD pro kWh, also etwa achtmal höher. Für deutsche Haushalte beträgt der Durchschnittspreis laut BDEW Strompreisanalyse, sogar 40,92 Cent pro Kilowattstunde (ca. 0,44 USD/kWh).

So berichtet TE heute. Ein Preis von dem wir Deutsche nur träumen können.

In Deutschland müssen wir wohl weiter durch das Tal der Tränen hindurch. Roger Letsch hat es heute bei ACHGUT richtig beschrieben.

Die Bundesregierung wünscht ein teures neues Jahr

Zum Jahreswechsel steigt die sogenannte CO2-Abgabe und heizt gerade bei der Energie die Preisspirale weiter an. Das ist aber kein Naturgesetz, sondern eine rein politische Entscheidung und sollte in einer Demokratie in einem Wahljahr durchs Wahlverhalten auch korrigierbar sein.

Zu den politischen Entscheidungen gehört leider auch, dass sich Parlament und Regierung auf den Pfad der Einsicht bewegen und diese entsprechend auch umsetzen. Bisher spricht nichts dafür, aber hoffen kann man ja, denn langsam und dann immer schneller geht es den Bürgern dieses Landes ans Eingemachte. Sie haben im eigenen Land keine Sicherheit mehr, die Infrastruktur zerfällt vor ihren Augen, die Bildung der Jugend ist im Eimer, die Renten werden unbezahlbar, dem Gesundheitswesen geht die Luft aus,  und Bürgergeld zieht alle an. Natürlich auch die Migranten, wer sollte es ihnen verdenken. Da hilft auch dann keine Brandmauer mehr, denn „erst kommt das Fressen, und dann die Moral“ wie schon Berthold Brecht, der alte Kommunist, wusste. So bleibt zwar vieles nur wünschbar, aber da Geschichte selten linear verlauft können, können wir trotzdem hoffen.

Und dieser Hoffnung wollen wir Ausdruck geben.

Prost Neujahr.




Dunkelflaute – Deutschlands Energiewende stolpert immer tiefer in die Gefahrenzone

Winterlicher Hochdruckeinfluss zeigt die Schwachstellen der Energiewende gnadenlos auf: Windräder stehen still, Solaranlagen liefern kaum Strom, und ohne teure Stromimporte wäre es finster geblieben. Die Abhängigkeit von wetterabhängigem Strom fordert ihren Preis und stellt die Energiepolitik infrage.

Von Holger Douglas

Die Dunkelflaute geht weiter. Winterlicher Hochdruckeinfluss bringt graues, trübes Wetter und kaum Wind. Das ist schlecht für Deutschland, denn das Land leidet unter der Energiewende. Einige glauben, man könne ein Industrieland mit Strom aus Wind und Sonne versorgen und sehen sich hierbei aus komplett unerfindlichen Gründen in einer absoluten Vorreiterrolle. Die ganze Welt würde auf sie schauen und es dann nachmachen. Übersehen wird dabei aber gerne vollkommen, dass die Welt längst lauthals über die tonangebenden Köpfe im alten Germanien lacht. Dummerweise haben diese wenigen Personen an den politischen Schalthebeln des Landes durchsetzen können, sämtliche Kraftwerke abzuschalten und zu zerstören, um sie für das zukünftige Wiederhochfahren nach einem möglichen Politikwechsel gleich komplett unbrauchbar zu machen.

Das alles führt zu der spannenden Frage, wie lange so etwas gut gehen kann. Gerade Herbst / Winter mit ihren jahreszeitlichen langen Hochdruckphasen bieten einen interessanten Test. Gut für die politischen Akteuere, dass jetzt während der Feiertage der Bedarf nicht allzu hoch ist, da geht der Strommangel gnädig mit Deutschland um. Die Daten zeigen: lediglich um die Mittagszeit kam in den vergangenen Tagen ein wenig Strom von den 3,7 Millionen Photovoltaikanlagen im Land, die gelben Hütchen in der Grafik. Knapp 15 GW elektrische Leistung am Freitagmittag und am Samstagmittag jeweils um 12:00 Uhr. Die Windräder drehten kaum, entsprechend wenig Leistung kam von ihnen: 1 GW am Freitag um 12:00 Uhr und 1,4 am Samstag um 12:00 Uhr, zeigen die blauen Hügel an. Die Masse des Stromes stammt aus den bösen fossilen Kraftwerken in Grau. Die rote Linie ist der Verbraucht; die Differenz wird durch Import geschlossen. Und der ist teuer.

Ein Bild, das Screenshot, Diagramm enthält. Automatisch generierte Beschreibung

Agora-Energiewende

Ohne erhebliche Stromimporte aus dem Ausland wäre es dunkel geworden. 8,58 GW/h wurden am Freitagabend importiert zu einem Preis von 151,8 € pro Megawattstunde. Am Samstagnachmittag gar 9,14 GW/h am zu einem Preis von 143,25 € pro Megawattstunde.

Ein Bild, das Text, Schrift, Reihe, Diagramm enthält. Automatisch generierte Beschreibung

Agora-Energiewende

Die Börsen-Strompreise kletterten wieder auf 158,40 € pro Megawattstunde am 27. Dezember um 18:00 Uhr. Die orange Linie zeigt den Preis des Stroms von kommenden Tag; die rote Linie der Preis des Vortags.  Die grüne Fläche ist die Menge des grünen Stroms; die graue Fläche die konventionell erzeugte Strommenge. Fazit: Ohne Kohle nix los. Jedes weitere abgeschaltete Kohlekraftwerk führt das System in die Gefahrenzone.

Ein Bild, das Text, Diagramm, Schrift, Screenshot enthält. Automatisch generierte Beschreibung

Die folgende Grafik der Electricity maps zeigt den geringen Anteil der sogenannten „Erneuerbaren“ an der Stromproduktion. Die grauen Flächen stellen die jeweilige installierte Leistung dar und sind gleichzeitig die Antwort an die Energiewende-Geistesgröße Claudia Kemfert, warum auch 100.000 Windräder das Problem nicht lösen: Ohne Wind helfen auch stillstehende Windräder nicht.

Ein Bild, das Text, Screenshot enthält. Automatisch generierte Beschreibung

Abhilfe ist in Sicht: Für die Nacht zum Donnerstag deutet sich ein Sturmtief über dem Norden an. Es gibt also wieder Wind – leider wohl nur in der Nacht. Tagsüber legt sich der Wind wieder.

Also: Nachts die Waschmaschinen und Backöfen anwerfen, wenn Strom vorhanden ist. Das nennt man angebotsabhängig, so Sylvia Kotting-Uhl, die ehemalige Vorsitzende des Bundestagsausschusses für Umwelt, Naturschutz und nukleare Sicherheit im April 2021. „Die Zukunft wird flexibler sein“, schleuderte die Unglückselige der AfD im Bundestag entgegen, „spannender, ja, auch anspruchsvoller: nicht mehr nachfrage-, sondern angebotsorientiert…“. Die ist nach 16 Jahren im Bundestag längst draußen und wird nicht von Altersarmut ereilt werden.

Der Beitrag erschien zuerst bei TE hier

 




Energiewende: Von China lernen

China hat für seinen wirtschaftlichen Aufstieg an die Weltspitze viel von Europa und den USA gelernt. Wir sollten nun von China lernen, wie wir den wirtschaftlichen Niedergang umkehren können. Energie ist der Schlüssel.

Prof. Dr. Ing. Hans-Günter Appel

Der wirtschaftliche Aufstieg von China geht immer weiter. Deutschland und Europa treiben dagegen in die Rezension. Betriebe werden geschlossen oder wandern in andere Länder ab. Viele zehntausende Arbeitsplätze gehen verloren. Gründe sind viele nicht erforderliche staatliche Vorschriften und hohe Energiepreise. Beide beruhen auf einseitigen politischen und ideologischen Vorstellungen. Sie verhindern eine Marktwirtschaft mit Wettbewerb und günstigen Preisen.

Die grünen Ideologen in fast allen Parteien wollen Deutschland ohne fossile Brennstoffe weitgehend mit Strom aus Wind und Sonne versorgen. Das kann nicht gelingen. Man kann es nicht oft genug wiederholen: „Dieser Strom ist wetterabhängig und daher unzuverlässig“. Er kann nicht auf den Verbrauch geregelt werden und er kann kein Stromnetz  mit einer stabilen Frequenz aufbauen und halten. Um das klar herauszustellen, wird dieser Strom Fakepower (Fake = Täuschung) genannt. Ein stabiles Stromnetz gib es nur mit regelbarem Strom aus Kraftwerken, wo die erzeugte Strommenge exakt dem Abruf an Strom durch die Verbraucher entspricht.

Nach dieser Definition sollen die Energiequellen zur Stromversorgung in  China und in Deutschland bewertet werden.

 

Land Fossil Wind Solar Hydro Nuklear Geothermisch
Deutsch 54.25 24.50 11.46 3.44 6.31 0.04
China 66.16 8.71 4.78 15.55 4.80 0.00

Der Energiemix in China im Vergleich zu Deutschland (US-EIA-Daten 2022)

 

Fakepower

China hat ein Netz mit 86 Prozent regelbaren Strom (Fossil + Hydro + Nuklear). Die knapp 14 Prozent Fakepower (Wind + Solar) können die Wasserkraftwerke stützen. Gibt es viel Fakepower, werden die Wasserkraftwerke gedrosselt. Dies ist nur in der Kombination von Fakepower und Wasserkraft (aus Talsperren und Pumpspeicher-Seen sinnhaltig möglich, da nur in dieser Kombination keine Leerlauf- oder Teillast- Betriebskosten oder Wartungskosten entstehen. Die Stauseen bleiben gefüllt für Trockenperioden. Die Versorgungssicherheit aus den Wasserkraftwerken wird besser. Jede in dieser Kombination erzeugte Kilowatt-Stunde Strom kann als vollwertige Arbeitseinheit angesehen werden, wenn man von dem relativ geringen Nachteil der fehlenden Regelstromleistung absieht. Weil diese fehlt, ist aber trotzdem die Bezeichnung als Fakepower gerechtfertigt. Spitzfindig könnte man auch noch den fehlenden Deckungsbeitrag aus dem reduzierten Nutzungsgrad geltend machen. Allerdings erreichen Wasserkraftwerke durchaus biblisches Lebensalter, so dass kalkulatorische Abschreibung nicht mehr anfällt.

Deutschland hat dagegen 26 Prozent Fakepower im Netz mit Leistungsschwankungen zwischen 0 % bei Dunkelflaute und über 100 % bei Starkwind und Sonnenschein und absolut unbedeutende Wasserkraft-Leistung. Strom aus überschüssigen Fakepower-Leistungen muss also kostenpflichtig entsorgt werden (gegebenenfalls sogar über negative Börsenpreise, als Verwertungsanreiz bei den Beziehern). Mit jeder weiteren Fakepower-Anlage muss öfter Strom entsorgt werden. In diesem Jahr gab es über mehr als 500 Stunden Überschussstrom mit Entsorgungskosten in Milliardenhöhe. Bei Dunkelflaute müssen Kraftwerke die Stromversorgung übernehmen. Nach Abschalten der Kernkraftwerke und der ersten Kohlenkraftwerke fehlt Kapazität in Deutschland. Der fehlende Strom wird aus den Nachbarländern teuer importiert. Importspitzen liegen bei 30 Prozent des Bedarfs und Kosten bis zu einem Euro/Kilowattstunde.

Kohle 

Als fossilen Brennstoff zur Stromerzeugung nutzt China fast ausschließlich Kohle, die im Land gefördert wird. Jede größere Stadt hat inzwischen ein Kohlekraftwerk. Der Ausbau geht weiter. Jede Woche gingen in Spitzenzeiten bis zu zwei neue Kraftwerke ans Netz. Über 400 weitere Kohlekraftwerke sind noch im Bau bzw. geplant. Die Strecken zu den Verbrauchern sind kurz. Es geht wenig Leitungsenergie verloren. Die Abwärme kann zum Heizen genutzt werden.

Deutschland will alle Kohlekraftwerke in den nächsten 10 Jahren stilllegen. Abgeschaltete Kraftwerke werden von der Ampelregierung möglichst schnell unbrauchbar gemacht. Ein Beispiel ist das Kraftwerk Moorburg bei Hamburg. Es war das modernste Kohlekraftwerk in Deutschland mit einem Wirkungsgrad von 46 %. (Der mittlere Wirkungsgrad europäischer Kraftwerke liegt bei 40 %. Moorburg hat aus der gleichen Kohlenmenge 15 % mehr Strom erzeugt). Nach wenigen Betriebsjahren wurde es abgeschaltet und sofort durch Sprengung der Schornsteine unbrauchbar gemacht. Das ist grüne Energiepolitik. Auch die mit heimischer Braunkohle laufenden Kraftwerke sollen abgeschaltet werden. Dann gibt es keinen Strom mehr aus deutschen Energieträgern.

Kernenergie

Chinas Ziel war die Versorgung mit Kernenergie. Es sind über 50 Reaktoren in Betrieb. Geplant sind 250. Das berichtete mir ein Kollege für Elektrotechnik bei einem Besuch der Universität in Xian vor 15 Jahren. Dieser Plan wird verzögert weiter verfolgt, nachdem die Baukosten für Kernkraftwerke stark angestiegen sind. Der Bau von Kohlekraftwerken ist wesentlich preiswerter. Die Forschung und Entwicklung zur Nutzung der Kernenergie wurde ausgeweitet. China ist auf dem Weg, weltweit die günstigsten Kernkraftwerke liefern zu können.

Deutschland hat dagegen die letzten Kernkraftwerke abgeschaltet und sofort wesentliche Teile demontiert, um ein Wiedereinschalten zu verhindern. Nach Einschätzung des ehemaligen Betriebsleiters der ehemaligen 8 DDR-Kernkraftwerksblöcke in Lubmin, Manfred Haferburg, müssten zum Wiederanfahren dieser Kraftwerke Milliarden aufgewendet werden. Er nennt das Abschalten und sofortige Zerstören der Kraftwerke Sabotage an Deutschland. Eine Förderung der Kernenergie-Forschung ist in Deutschland bisher nicht geplant. Unser Land wird zu gegebener Zeit die nächste Kraftwerks-Generation wohl aus China importieren, wenn sich Deutschland den Kauf von Kraftwerken noch leisten kann und der Bedarf überhaupt noch besteht und nicht alle Industrie abgewandert ist. Auch wir private Verbraucher beziehen wegen der schon seit bald 2 Dekaden sprunghaft ansteigenden Strompreise immer weniger Strom, Wärmepumpen- und Batterie-Auto-Verbrauch aussen vor.

Chinas Energiepolitik 

Unser Buch „Energie – Schlüssel zum Wohlstand“ wurde ohne mein Wissen nach Internet-Angaben in China übersetzt. Es mag sein, das es maßgeblich die chinesische Energiepolitik beeinflusst hat. Die Entscheidungswege in China sind undurchsichtig. Nach Präsident Xi Jinping baut China Fakepower-Anlagen weiter aus. (Der Bau wurde in den letzten Jahren stark verringert.) Eine Energiewende ohne fossile Brennstoffe soll aber erst erfolgen, wenn Fakepower, Kernenergie und Wasserkraft das Land vollständig versorgen können. Dieses Ziel wird China in diesem Jahrhundert nicht erreichen. Als Entwicklungsland braucht es CO2-Emissionen nicht einschränken. Damit gibt es in China auch keine CO2-Zertifikate, die in Europa und den USA Energie massiv verteuern.

In China kostet die Kilowattstunde Strom 8 bis 9 Cent. In Deutschland ist sie 3 bis 4-mal teurer. Rechnet man die vielen Subventionen aus Steuergeldern und die Kosten für CO2-Zertifikate hinzu, liegen die Strompreise deutlich über 50 Cent/kWh. Mit den hohen Energiekosten, die verdeckten Subventionen noch nicht mal berücksichtigt, kann kein Betrieb in Deutschland mit China konkurrieren. Die Energiewende ist gescheitert. Es wird höchste Zeit, China in der Energiepolitik zu folgen.

Folgerungen

Das heißt: Schluss mit der Energiewende. Kein weiteres Abschalten von Kohlekraftwerken. Ausbau der Braunkohleverstromung mit dem einzigen verfügbaren heimischen Energieträger. Fracking nach Öl und Gas in Deutschland erlauben. Subventionen einstellen. Nur so kann der wirtschaftliche Niedergang in Deutschland gestoppt und ein Aufstieg eingeleitet werden. Werden die kommenden Wahlen eine Wende bringen? Es sieht schlecht aus. Fast alle Parteien wollen mit der Energiewende das Weltklima retten und zerstören damit eine wirtschaftliche Energieversorgung.

Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB e.V. Stromverbraucherschutz

 




Wir waren für knapp 24 h Offline – Grund unbekannt

Liebe Leser,

viele hatten es schon bemerkt: Die EIKE Seite war gestern den ganzen Tag offline. Das betraf auch die Backend-Seite. Also ingesamt. Der gegen 9:00 sofort eingeschaltete Webmaster konnte auch nichts tun, sondern bemühte den Provider. Der antwortete gestern dann um 17:33:

Guten Tag,
Wir haben Ihre Anfrage an unsere Techniker weitergeleitet. Wir melden uns bei Ihnen sobald wie möglich zurück. Mit freundlichen Grüßen

Von da an kam nichts mehr, bis heute um 7:28 Uhr der Server wieder lief. Und damit auch die Webseite. Wieder ohne Rückmeldung.

Buchen wir das Ganze als Problem was immer mal wieder auftaucht, aber wegen Personal-Minderbestückung auf Grund  der Feiertage, sich ausweitet, ab. Jedoch, wir hoffen, dass der Provider der Sache nachgeht.