Uni Stuttgart: Ingenieure und Wissenschaftler ziehen Bilanz aus 20 Jahren Energiewende

Kritiker auf verlorenem Posten?

Edgar L. Gärtner

 

Ingenieure sieht man so gut wie nie in deutschen TV-Talk Shows. Dabei gibt es unter den führenden Köpfen ingenieurwissenschaftlicher Fachbereiche durchaus Leute (inzwischen oft im Rentenalter), die mit Witz und Verve vortragen können. Das zeigte sich am vergangenen Wochenende im Internationalen Begegnungszentrum IBZ des Campus Stuttgart-Vaihingen. Dort hatte Prof. Dr. André Thess, Inhaber des Lehrstuhls für Energiespeicherung am Institut für Gebäudeenergetik, Thermotechnik und Energiespeicherung (IGTE) für den 8. bis zum 10. Juli zu einer Fachtagung zum Thema „20 Jahre Energiewende“. Als Schirmherrn und Moderator der Veranstaltung gewann Prof. Thess (der in Dresden zu Hause ist) den bekannten Dresdner Politikwissenschaftler Prof. Dr. Werner J. Patzelt. So war gewährleistet, dass die Diskussionen nicht in Fachsimpelei versandeten.

Der Wissenschaftsphilosoph und Ethiker Prof. Dr. Carl Friedrich Gethmann (Siegen) eröffnete den Reigen der Fachvorträge. Der von Mathematik und Logik herkommende Philosoph ließ allerdings die religiöse Dimension der Energiewende-Politik m. E. unterbelichtet. Immerhin warnte er klar vor der Übergriffigkeit einer sich auf „die“ Wissenschaft berufenden Politikberatung. Der über Skype aus Kopenhagen zugeschaltete bekannte dänische Politologe Björn Lomborg wiederholte seinen beeindruckenden statistischen Nachweis der generellen Weltverbesserung seit der vorletzten Jahrhundertwende. So hat sich die von Waldbränden betroffene Fläche zwischen 1900 und 2000 um etwa ein Drittel vermindert. Im 21. Jahrhundert hat sich dieser Trend, wie präzise Satellitenaufnahmen zeigen, fortgesetzt. (Ich habe schon vor vier Jahren an dieser Stelle darauf hingewiesen.) Die Zahl der von Wetter- und Klimaextremen verursachten Todesopfer ist im gleichen Zeitraum auf ein Zehntel gesunken.

Das Kosten-Nutzen-Verhältnis der Klimapolitik ist negativ

Der allgemeine Trend der Weltverbesserung, davon ist Lomborg überzeugt, wird auf absehbare Zeit auch vom Klimawandel nicht durchkreuzt. Das Kosten-Nutzen-Verhältnis der Verfolgung des 1,5- oder 2-Grad-Ziels in der Klimapolitik sei deshalb negativ. Optimal sei eine globale Erwärmung um 3,75 Grad. Lomborg konnte von daher die Schätzung der Unternehmensberatung McKinsey, wonach für die Bekämpfung des Klimawandels 5,4 Prozent des BIP oder über ein Drittel der globalen Steuereinnahmen aufgebracht werden müssen, nur mit Kopfschütteln quittieren. Die beste Antwort auf den Klimawandel sei intelligente Anpassung. Dabei akzeptiert Lomborg leider unhinterfragt das politische Dogma eines linearen Zusammenhangs zwischen den menschlichen CO2-Emissonen und dem Anstieg der Erd-Temperatur. Aber er geht davon aus, dass nur technische Innovationen und nicht Verbote und Rationierung den CO2-Anstieg kosteneffektiv bremsen können. Als grün dürften dabei aber nicht nur Solar- und Windenergie anerkannt werden. Eine globale CO2-Steuer sei der beste Weg, um technologie-neutral Öko-Innovation zu fördern.

Prof. Dr. Michael Beckmann (Dresden) untersuchte, ob die angebotenen Technologien, um dem Ziel 100 Prozent Erneuerbare näher zu kommen, wirklich anwendungsreif sind. Er verwendete dabei die u.a. im Flugzeugbau bewährte 9-stufige Klassifikation des Technology Readiness Levels (TRL). Dabei kam er trotz optimistischer Annahmen zum Schluss, dass Industrieregionen allenfalls das Niveau 4 erreichen, also noch im Anfangsstadium der Technologieentwicklung stecken. Nur einige kleine Inseln ohne Großindustrie wie etwa die Kanaren-Insel El Hierro mit 11.000 Einwohnern erreichen das Niveau 7, wobei auch El Hierro auf den Einsatz von Diesel-Aggregaten nicht verzichten kann. Nicht nur Deutschland, sondern die ganze Welt ist noch weit vom TRL-Niveau 9 entfernt.

Prof. Dr. Harald Schwarz (Cottbus) beschäftigte sich mit den besonderen Problemen der Stromnetze. Die Elektrizität deckt zurzeit etwa 20 Prozent des deutschen Jahres-Energiebedarfs von 2.317 TWh ab. Dieser Anteil soll nach dem Willen der Grünen aber schon in naher Zukunft auf 75 Prozent ansteigen. Das ist utopisch. Allein um die für E-Autos notwendigen Ladestationen mit der nötigen Leistungsstärke zu versorgen, müssten die Niederspannungs-Netze auf über einer Million Kilometern verstärkt werden. Wer soll das bezahlen und wo findet man genügend qualifizierte Handwerker? Die gesicherte Leistung von Onshore-Windkraftanlagen liegt bei nur einem Prozent. Die in Deutschland vorhandenen Pumpspeicher reichen nur für 30 bis 60 Minuten. Wie will man da den für die Netzstabilität wichtigen Grenzwert von 49,8 Hertz einhalten? Wie will man ein von Erneuerbaren dominiertes Netz nach einem Blackout schwarz starten? Lauter ungelöste Fragen!

Sehr interessant war m.E. auch der Vortrag von Prof. Dr. Thomas Koch vom bundeseigenen Karlsruhe Institut für Technologie (KIT), das viel mit wissenschaftlicher Politikberatung beschäftigt ist. Koch wies darauf hin, dass alle von Kraftfahrzeugen hervorgerufenen Umweltprobleme wie NOx-, SO2 oder Kohlenwasserstoff- und Partikel-Emissionen längst befriedigend technisch gelöst sind. Bei den Bemühungen der Politik in Brüssel und Berlin, den CO2-Ausstoß von Kfz mit immer größerem technischen Aufwand weiter zu senken, gehe es nicht um die Schonung des der Menschheit vom Klimarat IPCC zugestandenen Rest-Budgets von 420 Gigatonnen CO2, sondern um die Abschaffung der Kfz mit Verbrennungsmotor. Bei der Verschiebung der Einführung der Euronorm 7 für Kfz-Abgase durch den Vizepräsidenten der EU-Kommission Frans Timmermans gehe es einzig darum, die Automobilindustrie von weiteren technischen Innovationen abzuhalten. Theoretisch könne man die Verbrenner mit dem Einsatz „klimaneutraler“ E-Fuels retten. Bei einem Strompreis von 1ct/KWh seien diese wettbewerbsfähig. In manchen Ländern sei ein solch günstiger Strompreis durchaus erreichbar.

Vorteile der Kernenergie

Prof. Dr. Horst Michael Prasser, früher am Helmholtz-Zentrum Dresden-Rossendorf und heute an der ETH Zürich forschend und lehrend, gab ein eindrucksvolles Plädoyer für die Kernenergie. Selbst beim EPR, dessen Baukosten wegen Fehlplanungen aus dem Ruder gelaufen sind, betragen diese mit 0,015 €/KWh weniger als die Hälfte der Baukosten von Photovoltaik-Anlagen. Ganz zu schweigen von den Betriebs- und Entsorgungskosten über den gesamten Lebenszyklus. Hier seien moderne Kernkraftwerke um den Faktor 1.000 und mehr besser als PV-Anlagen. Radioaktive Abfälle stellten wegen ihres geringen Volumens kein großes Problem dar. Deutschland könne sich übrigens mithilfe der Hinterlassenschaft der untergegangenen Wismut AG in Thüringen und Sachsen mit Uran selbst versorgen. Die Zukunft des Dual-Fuel-Reaktors, der auch aus radioaktiven Abfällen Energie gewinnen kann, hänge an der Entwicklung widerstandsfähiger Werkstoffe aus Silizium-Karbid-Keramik. Vielleicht kann die carbothermische Nitridierung silikatreicher Braunkohle, die ich vor einigen Jahren an dieser Stelle vorgestellt habe, dazu beitragen.

Immerhin schaffte es Prof. Thess in Gestalt von Anna-Veronika Wendland (Leipzig und Marburg) in der von Männern dominierten Technik-Welt auch eine Frau als Referentin aufzutreiben. Die auf Osteuropa spezialisierte Historikerin betreibt in der Nuklearwirtschaft Sicherheitsforschung besonderer Art, das heißt „Maschinen-Ethnologie“ oder „Industrial Anthropology“ im Sinne des bekannten französischen Öko-Theoretikers Bruno Latour. Sie geht der Frage nach, ob und inwieweit die Kernenergie etwas zur gesellschaftlichen Sicherheit beitragen kann. Damit hat sich die ehemalige Nuklear-Gegnerin viele Sympathien der politischen Linken, der sie sich noch immer zugehörig fühlt, verscherzt. Sie sieht ihre Aufgabe in der gesellschaftlichen „Konsens-Herstellung“. Deshalb müsse man Initiativen wie Fridays for Future (FfF) durchaus ernstnehmen, müsse aber deren Apokalyptik zurückweisen. Sie verweist auf den enormen Rohstoffbedarf der so genannten Erneuerbaren im Vergleich zur Kernkraft mit geringster Materialintensität. Diese werde von den Grünen aber gerade wegen ihrer Vorteile abgelehnt, weil das die Chancen der Erneuerbaren schmälert. Denuklearisierung sei der Grünen Bewegung also wichtiger als Dekarbonisierung. Die Laufzeitverlängerung bestehender Kernkraftwerke sei die günstigste Option der Klimapolitik zur Ansteuerung des Net-Zero-Ziels für 2050. Auch der Neubau von KKW werde sich lohnen. Daher sei es nur logisch, dass das Joint Research Institute (IRC) der EU die Kernenergie als nachhaltig eingestuft hat und die Mehrheit des EU-Parlaments dieser Einschätzung folgte.

Wie man sich denken kann, stieß der von Frau Wendland gewählte Begriff „Konsens-Herstellung“ bei den Diskutanten auf Widerspruch. Einvernehmen statt Konsens reiche völlig aus, betonte der Physiker Philip Lengsfeld. Die Mehrheit der Deutschen freunde sich angesichts des Gasmangels inzwischen ohnehin mit der Kernenergie-Nutzung an. Ohnehin müsse man die Kerntechnik als Low Risk Technologie betrachten, schloss Frau Wendland. Um hier Investitionen anzuziehen, müsse der Staat allerdings Planungssicherheit garantieren.

Die Linke hat total versagt

Beim abendlichen Kamingespräch fragte Prof. Patzelt als Moderator: „Muss unser Klima wirklich gerettet werden?“ Der Journalist Alexander Wendt (München) stellte die Gegenfrage: „Wann ist das Klima gerettet?“, um zu zeigen, dass die grüne Bewegung mit verschwommenen Zielvorstellungen operiert und dadurch eine Verengung des Diskurses erreicht. Der ehemalige RWE-Manager Fritz Vahrenholt (Hamburg) wies darauf hin, dass es nach der Verabschiedung des „Osterpakets“ der Berliner Ampel-Regierung kaum noch Klagemöglichkeiten gegen Windkraft-Projekte gibt. Die Fixierung auf die Abwendung einer angeblich drohenden Klimakatastrophe stelle eine Gefahr für die Demokratie dar. Schon jetzt gebe es Beispiele staatlicher Zuteilung von Ressourcen nach Gutsherrenart. So habe der konkursreife Windradbauer Enercon im Zuge der Corona-Hysterie 500 Millionen Euro erhalten. Wofür? Alexander Wendt verwies auf die Forderung des von der Regierung bestellten Sachverständigenrates für Umweltfragen, die Zuständigkeit der Parlamente durch einen nicht gewählten Zukunftsrat einzuschränken. FfF-Ikone Louisa Neubauer beruft sich darauf, wenn sie offen verfassungsfeindliche Forderungen stellt. Wendt wies auch darauf hin, dass die Energiewende schon allein deshalb scheitern muss, weil sie zu viele Ziele gleichzeitig verfolgt: Die Energieversorgung sollte gleichzeitig sauberer, billiger, dezentraler und weniger vom Ausland abhängig werden. In der Praxis wurde in allen Punkten das Gegenteil erreicht. Statt ihr Scheitern einzugestehen, verbarrikadierten sich die Befürworter der Energiewende in einer Wagenburg.

Die Ex-Grüne Antje Hermenau (Dresden) wies darauf hin, dass mittelständische Unternehmen wegen der unsicheren Materialversorgung infolge der Störung von Lieferketten untereinander schon Tauschhandel praktizieren. Statt vom Prinzip der Subsidiarität auszugehen, baue die EU aber an einer Arbeitsteilung nach dem Modell des untergegangenen sozialistischen RGW. Anna Veronika Wendland klagte, es gebe in Deutschland keinen oppositionellen Umweltverband mehr. Die Investoren in Wind- und Solarkraftwerke kontrollierten sich also selbst und sorgten für immer mehr Umverteilung von unten nach oben. Es gebe einen inhaltlichen Gleichklang zwischen den Transformations-Modellen der globalen WEF-Elite (Sozialismus der Milliardäre) und dem grün-linken Milieu. „Wer das kritisiert, wird als Verfassungsfeind abgestempelt. Die Linke hat total versagt“, stellte sie fest. Immerhin gebe es in Deutschland etwa 1.000 Bürgerinitiativen gegen Windkraft-Projekte, erinnerte Fritz Vahrenholt. Gebe es Anfang Januar 2023 kein Gas mehr, komme der große Aufstand. Das wage ich aufgrund der Kenntnis der Psyche meiner Landsleute zu bezweifeln.

Wenn die Kosten den Umsatz übersteigen…

Der bekannte Wirtschaftswissenschaftler Ulrich van Suntum (Münster) beschäftigte sich am folgenden Tag der Veranstaltung mit den Kosten der Energiewende. Das Münchner Ifo-Institut schätzt die Kosten der Vermeidung von einer Tonne CO2 auf 60 bis über 400 Euro. Die CO2-Zertifikate kosten in Deutschland zurzeit zwischen 80 und 85 €/t, sind in anderen Ländern aber für weniger als ein Zehntel dieses Preises zu haben. Das führe dazu, dass in Deutschland oft am falschen Ende gespart wird. Ohnehin liege Deutschlands Anteil am globalen CO2-Ausstoß inzwischen unter 2 Prozent. Selbst wenn es Deutschland gar nicht mehr gäbe, mache das also kaum einen Unterschied. Die CO2-Vermeidung komme mithilfe der Photovoltaik (415 €/t) am teuersten. Die in der deutschen Energiepolitik übliche kleinteilige Planwirtschaft diene nur der Profilierung von Berufspolitikern, die sich immer den wissenschaftlichen Rat suchen, der ihnen gerade in den Kram passt. „Was Deutschland macht, ist alles Tinnef“, schloss van Suntum sarkastisch und plädierte für einen internationalen Klima-Fonds, um die Klimapolitik den Machenschaften kurzsichtiger Politiker zu entziehen.

Ein Highlight der Veranstaltung war der Vortrag von Dr. Ing. Hans-Bernd Pillkahn (Werdohl). Pillkahn hat sein ganzes Berufsleben in der Metallindustrie zugebracht und kennt die geostrategische Situation Deutschlands aus eigener Erfahrung. Es sei wirtschaftlich unmöglich, die politische Vorgabe einer 36prozentigen Absenkung des deutschen CO2-Ausstoßes bis 2030 allein durch die Nutzung von Wind- und Solarenergie zu erreichen. Die Windleistung von einem Kilowatt kostet Investitionen von 1,5 Millionen Euro. Die im bereits erwähnten „Osterpaket“ als „Freiheits-Strom“ titulierte Solarenergie koste 1,4 Billionen Euro je Gigawatt Leistung. Dabei erreicht die Nutz-Zeit der Sonnenenergie in Deutschland nur 10,5 Prozent, die der Windkraftanlagen 20,9 Prozent. Da konnte Pillkahn genüsslich zitieren, was Wilhelm Busch im Jahre 1870 über die Nöte der Windmüller schrieb. Pillkahn beschäftigte sich dann mit dem Rohstoffbedarf der Erneuerbaren. Nach einer aktuellen Studie der belgischen Universität Leuwen wächst allein der Lithiumbedarf bei der Verfolgung der so genannten SDS-Strategie um über 1.000 Prozent!

Aber nicht nur bei Lithium, auch bei allen anderen Metallen ist die Abhängigkeit Deutschlands von Importen sehr groß. 67 Prozent aller Kapazitäten der Erz-Raffinierung befinden sich in Asien, nur 1,5 Prozent in Deutschland, 6,6 Prozent in der EU und 3,6 Prozent in den USA. Es gibt in Deutschland zum Beispiel nur eine einzige Zinkhütte. Nicht von ungefähr erreicht der in der Schweiz ansässige Rohstoff-Handelskonzern Glencore einen Jahresumsatz von 270 Milliarden Euro. Der Versuch der Umsetzung der politischen CO2-Vorgaben in der Metallindustrie kostet überall Millionen-, wenn nicht Milliardenbeträge. So wird der Ersatz der bislang bei der Herstellung von Gusseisen eingesetzten Kupolöfen, die mit Koks befeuert werden, durch elektrische Induktionsöfen schätzungsweise 45 Millionen Euro kosten. Unbezahlbar teuer würde die von der Politik gewünschte Herstellung von “grünem“ Stahl mithilfe von Wasserstoff (H2). Deren Strombedarf wird auf 110 TWh, die Leistung von drei großen Kernkraftwerken vom Typ Isar 2, geschätzt. Deren Ersatz durch Grünstrom würde mehr kosten als der gegenwärtige Umsatz der Stahlindustrie! Weltweit habe bislang noch niemand auch nur eine Tonne Stahl mithilfe von Wasserstoff hergestellt, betonte Pillkahn in der anschließenden Diskussion.

Das jähe Ende der „Gaswende“

Prof. Dr. Fritz Vahrenholt, jetzt Aufsichtsratsvorsitzender der Hamburger Aurubis AG, des größten deutschen Kupferherstellers, konnte da direkt anschließen. Was als umfassende Energiewende verkündet wurde, sei in Wirklichkeit nur eine Wende zum Erdgas gewesen. Die Pipeline Nord Stream 2, die die Russen im Verbund mit westeuropäischen Konzernen auf ausdrücklichen Wunsch Berlins gebaut haben, sollte ausschließlich dieser „Gaswende“ dienen. Es war bekannt, dass die geplanten Windräder wegen ihrer unsteten Leistung dringend eines Backup durch flexibel einsetzbare Gaskraftwerke bedurften. (Ich habe darauf schon im Jahre 2008 im „Wall Street Journal“ hingewiesen.) Die letzte Berliner Koalitionsvereinbarung sah den Bau von 30 bis 50 zusätzlichen Gaskraftwerken vor. 38 Prozent des von Deutschland importierten Erdgases werden von der Industrie benötigt. Drehte Präsident Putin im Zuge des zum totalen Krieg auswachsenden Konfliktes zwischen der NATO und Russland den Gashahn endgültig ab, seien in Deutschland 5,6 Millionen Arbeitsplätze in höchster Gefahr. Das russische Gas durch den Schiffstransport von Flüssiggas (LNG) zu ersetzen sei in absehbarer Zeit nicht möglich. Noch unrealistischer sei der Ersatz thermischer Kraftwerke durch die Produktion von „Freiheits-Strom“ aus Wind und Sonne. Deren Anteil an der Primärenergieerzeugung machte im vergangenen Jahr gerade einmal 5,1 Prozent aus. Kurz- und mittelfristig helfe nur die Zulassung der heimischen Erdgasförderung aus Schiefergestein durch Fracking aus der gefährlichen Gasknappheit. Deutschlands Schiefergasvorräte reichen immerhin für Jahrzehnte.

Prof. Vahrenholt erinnerte daran, dass der Gaspreis schon vor Beginn des Ukraine-Krieges am 24. Februar 2022 nach oben gesprungen ist. Das sei kein Wunder, weil alle westlichen Energiekonzerne, abgeschreckt von unsicheren politischen Rahmenbedingungen, die Exploration und Erschließung neuer Gas-Lagerstätten eingestellt haben. Im Prinzip investieren nur noch russische, chinesische und saudische Staatskonzerne in die Erschließung neuer Lagerstätten. Die Volksrepublik China gilt bekanntlich im Pariser Klimaschutz-Abkommen von 2015 noch immer als „Entwicklungsland“, das vorerst seinen CO2-Ausstoß nicht verringern muss. Dabei hat das Land mit einem Pro-Kopf-Ausstoß von 8,2 Tonnen CO2 gerade Deutschland überholt, das „nur“ 7,7 Tonnen je Einwohner freisetzt. Vahrenholt fügte allerdings hinzu, niemand wisse, in welchem Maße das CO2 die globale Durchschnittstemperatur beeinflusst. Der jüngste IPCC-Bericht helfe da leider nicht weiter, weil er methodisch hinter seine Vorgänger zurückfalle. So gehe der IPCC in seinem Szenario 8.5 von der Emission von 6.100 Gigatonnen CO2 bis zum Jahre 2100 aus. Dadurch werde es zu einem globalen Temperaturanstieg von bis 4°C kommen. Dabei haben die Modellierer übersehen, dass die Brennstoff-Vorräte der Erde gar nicht ausreichen, um so viel CO2 zu erzeugen. Vahrenholt vermutet, dass die in den letzten Jahrzehnten gemessene Erwärmung der Erdatmosphäre zu einem guten Teil auf die Verlängerung der Sonnenscheindauer und jährlich 250 Stunden zurückgeht.

Wer haftet für Klima- und Energie-Simulationen?

Die Klimapolitik und somit auch die Entscheidung für die Energiewende beruht fast ausschließlich auf Modell-Simulationen, deren Validierung kaum möglich ist. Wer haftet für solche Simulationen? Mit dieser Frage setzte sich der Gastgeber André Thess selbst auseinander. In den Ingenieurwissenschaften unterscheidet man drei Kategorien von Simulationen. Kategorie A bezieht sich auf den Bau von Verkehrsflugzeugen. Deren Bau wird mithilfe der Navier-Stokes-Gleichungen der Strömungsmechanik berechnet. Die Validierung der mathematischen Modelle erfolgt mit einer Fehlerquote von unter einem Prozent im Windkanal. Die Hersteller haften für ihre Produkte. Das gilt als Goldstandard für Simulationen in den Ingenieurwissenschaften. In die Kategorie B gehören Wetter- und Klimaprognosen mit einer Fehlerquote von über 5 Prozent. Dafür haftet niemand. Energieszenarien mit dem Ziel, den kostengünstigsten Investitionspfad herauszufinden, gehören in die Kategorie C. Hier gibt es weder Validierung noch Haftung. Simulationsversuche sind allenfalls auf kleinen Inseln wie Pellworm oder El Hierro möglich. In der Diskussion kam die Frage auf, ob man nicht auch die Klimasimulationen dieser Kategorie zurechnen müsse. Ohne ein ständiges Monitoring sei die Arbeit mit solchen Modellen jedenfalls sinnlos.

Wie kann sich dann das Bundesverfassungsgericht in seinem umstrittenen Urteil zum Klimaschutz vom 24. März 2021 auf den Artikel 20a des Grundgesetzes berufen, in dem von „Klima“ gar nicht die Rede ist? Prof. Patzelt sieht hier die Gefahr einer Vertiefung der ohnehin schon vorhandenen Spaltung der Gesellschaft in „Anywheres“ und „Somewheres“. Für die Grünen sei die Energiewende das Generationenprojekt, an dem sich ihre Identität festmacht. Mit ihrer Ablehnung der Kernenergie haben sie erst die Massenmedien und dann die parlamentarische Mehrheit erobert. Patzelt hat daran nichts auszusetzen. Er beklagt aber die Ausartung der Öko-Bewegung zu einem Glaubenskampf, zu einer Hexenjagd gegen „Klimaleugner“ und KKW-Befürworter, die eine faire Debatte nicht mehr zulassen.

Patzelt ging leider nicht der Frage nach, wie es zu der auch von ihm beklagten „Zerstörung der kulturellen Homogenität“ unseres Landes kommen konnte. Deshalb darüber hier meine ganz persönliche Hypothese: Die Grünen repräsentieren die erste nachchristliche bzw. neuheidnische Generation Westeuropas. Es geht dabei nicht so sehr um Frömmigkeit, sondern um die Ablösung einer im weitesten Sinne christlich geprägte Kultur durch Formen des Gnostizismus in Verbindung mit heidnischer Mythologie. Zur christlichen Kultur gehört die ethische Argumentations-Figur der Übelabwägung. Der Gnostizismus hingegen verabscheut Kosten-Nutzen-Vergleiche und verabsolutiert das (angeblich Gute) um beinahe jeden Preis. Im Mittelalter hat man diese suizidale Irrlehre (z.T. erfolgreich) durch Kreuzzüge zu bewältigen versucht. Heute käme es darauf an, Heute käme es darauf an, das Selbstmordprogramm der FfF-Aktivist*innen bzw. der „Letzten Generation“ erst einmal als solches zu charakterisieren, anstatt davor auf die Knie zu fallen.

 




10 Klimapunkte, die ins Klima-Elend führen!

 

von Bau- und Energiefachmann Paul Bossert

Architekt, Bauingenieur und Bauphysiker, Basel-Stadt,

Beim „Klimawandel“ wird die wissenschaftliche Terminologie nicht mehr beachtet!

 

  1. Umweltschutz, Landschaftsschutz, Heimatschutz, Gewässerschutz sind OK.

Klimaschutz geht nicht, denn das Klima ist nichts anderes als das statistische Mittel des Wetters der letzten drei Jahrzehnte an den unterschiedlichsten Orten auf dieser Erde. Das Wetter kann man nicht ändern und ein statistisches Mittel kann man auch nicht schützen.

 

2. Der Unterschied zwischen Korrelation und Kausalität ist zu beachten. Die Population der Störche korreliert oft mit der Geburtenrate der Bevölkerung, doch zwischen CO2 und der Erderwärmung gibt es keine Kausalität. Bei den aktuellen Studien fehlt das Experiment.

 

3. Beim Treibhauseffekt, wird behauptet, dass die IR-Rückstrahlung aus kalten Wolken und oberen Schichten (Atmosphärische Gegenstrahlung) die Erde zusätzlich erwärmt. Das widerspricht dem 2. Hauptsatz der Thermodynamik nach Clausius: Warm fliesst nach kalt – wie auch bei der Strahlung von kälteren Wolken zur wärmeren Erde.

 

4. Die CO2-Treibhaus-Theorie wurde im Jahr 2009 falsifiziert. CO2 kann die erdnahen Luftschichten niemals erwärmen. Darum ist eine Dekarbonisierung der Welt und das Streben nach einer «Klimaneutralität» mit 1,5- und 2,0-Grad-Zielen obsolet.

 

5. Seit über 100 Jahren liegt die globale Oberflächen Temperatur der Erde unter 15°C. Das postulierten John Tyndall anno 1872, Svante Arrhenius anno 1896, wie auch das WMO in Genf, das die Werte für jedes Jahr neu ermittelt. Eine Klimakrise existiert nicht, denn eine gefährliche Erderwärmung über 15°C hat bis heute nicht stattgefunden.

 

6. Mit Solarenergie kann man kein hochentwickeltes Land mit Strom versorgen, denn die Effizienz ist zu gering, die Anlagen sind spezifisch zu teuer, sie verlieren nach 15 bis 20 Jahren ihre Leistungsfähigkeit und sind dann zu ersetzen. Eine Subventionierung ist erforderlich!

 

7. Die Standorte für Windenergie sind in der Schweiz marginal und aus Gründen des Landschaftsschutzes unbeliebt. Die uralte Windmühlen-Technologie weist eine zu geringe Leistung auf und muss erst noch subventioniert werden. Offshore in der BRD ist OK.

 

8. Die Fernwärme ist nicht zukunftsfähig, auch nicht klimaneutral, sie verbraucht rund 50% Müll, 50% an Erdgas und Erdöl, sie ist unwirtschaftlich und der Wirkungsgrad beträgt rund 60%. Moderne Gas und Oel-Heizungen haben einen Wirkungsgrad von 92% bis 95%. Flächendeckende Fernwärme sollte in Städten vermieden werden.

 

9. Die „EXERGIE“ von 1 kWh Strom ist weit höher als diejenige von 1 kWh Erdgas oder Erdöl.

Deshalb soll man Gebäude nicht mit Wärmepumpen beheizen. Elektrische Wärmepumpen sollten aus „kriegswirtschaftlicher“ Sicht bewilligungspflichtig und elektrische Widerstandsheizungen verboten sein

 

10. Die Schweizerischen-Energie-Vorschriften wie auch die EnEV sind falsch, weil sie sich nur auf die Verminderung der Wärmeleitung (fälschlicherweise Isolierung genannt) nach der UWert-Theorie stützt. Die U-Wert-Theorie ist nicht validiert. Die Ertüchtigung des Gebäudeparks ist unmöglich, weil Taugliche Dämmstoffe am Markt nicht erhältlich sind. Die Thermodynamik wurde bewusst vergessen!

 

Paul Bossert, Dipl. Bauingenieur FH, Architekt, Bauphysiker, Energie- und Bauschadenexperte www.paul-bossert.ch – www.klimamanifest.ch

 




Der konventionelle Treibhausansatz unterstellt einen fehlerhaften 24h-Tagbogen der Sonne

von Uli Weber

Vorwort: Es wäre sehr schön, wenn sich die Diskussion im Kommentarbereich diesmal auf den Beitrag selbst fokussieren würde. Denn eine physikalische Interaktion zwischen Sonneneinstrahlung und Materie (Erwärmung dieser Materie durch Bestrahlung) kann nur dann stattfinden, wenn beides physikalisch auch tatsächlich aufeinander trifft. Und das ist für jede Ortslage ausschließlich innerhalb des Tagbogens der Sonne der Fall, ganz egal, was rein mathematische 24h-Tag+Nacht-Mittelwerte auch immer aussagen mögen…

Der astronomische Tagbogen wird auf Wikipedia folgendermaßen beschrieben, Zitat:

Als Tagbogen, seltener auch Tagesbogen, wird in der Astronomie jener Teil der scheinbaren Sternbahn bezeichnet, der für einen bestimmten (geographischen) Ort und ein gewisses Datum berechnet über dem mathematischen Horizont liegt. Seine Länge entspricht damit idealisiert der Zeitspanne zwischen Aufgang und Untergang eines Gestirns – jedoch ohne die astronomische Refraktion zu berücksichtigen, weshalb die tatsächliche Dauer einige Minuten länger ist. Der ‚wahre Tagbogen‘ zieht darüber hinaus die jeweiligen topographischen Verhältnisse in Betracht, also die Höhe des Standorts und den Verlauf des Landschaftshorizonts bzw. auf dem Meer die Kimmtiefe.“

Der konventionelle Faktor4-Tag=Nacht-Ansatz betrachtet die Erde über den 24h-Tag aus der Perspektive der Sonne. Dazu wird aus der täglich einfallenden solaren Energiemenge der Tag+Nacht-Mittelwert einer imaginären 24h-Durchschnittsstrahlungsleistung für die gesamte Erde berechnet. Es dürfte aber für Jedermann, Jedefrau und Jedengender einsichtig sein, dass eine physikalische Interaktion zwischen der spezifischen solaren Strahlungsleistung und der Materie einer Ortslage auf der Erde (Erwärmung) nur zwischen Sonnenaufgang und Sonnenuntergang möglich ist. Folglich muss anstelle einer mathematischen 24h-Durchschnittsstrahlungsleistung die tatsächliche Interaktion während des Tagbogens der Sonne zwischen Auf- und Untergang für jede individuelle Ortslage betrachtet werden.

Abbildung 1: Die Variation des Tagbogens der Sonne in Mitteleuropa @ 52°N
Quelle: Wikipedia – University of Oregon GNU General Public License

Zur Taglänge heißt es auf Wikipedia, Zitat:

In nördlichen mittleren Breiten variieren die Tagbögen der Sonne im Jahreslauf ungefähr zwischen 8 Stunden (um die Wintersonnenwende: Dezember/ Januar) und 16 Stunden (um die Sommersonnenwende: Juni/ Juli), und dementsprechend die Tageslänge. Zum Datum der Tag-Nacht-Gleiche hat der Tagesbogen 12 Stunden, dann beträgt die Differenz zwischen dem Azimut des Sonnenaufgangs exakt im Osten und dem des Sonnenuntergangs exakt im Westen genau 180°.“

Wenn wir also für eine Ortslage in Mitteleuropa @ 52°N einmal die über den Tag X eingestrahlte Energiemenge mit EX@52 [Ws/m²] bezeichnen, dann ergibt sich folgende Ungleichung:

SmaxX@52 [W/m²] > EX@52/Stunden@x des Tagbogens [W/m²] >= EX@52/24h [W/m²]

mit SmaxX@52 = maximale spezifische Strahlungsleistung der Sonne zur Mittagszeit am Tag X

Der Durchschnitt der solaren Strahlstärke über den Tagbogen ist also kleiner als das mittägliche solare Maximum. Und der Durchschnitt über den astronomischen 24h-Tag ist wiederum kleiner als der solare Durchschnitt über den realen Tagbogen. Lediglich am geographischen Pol der Sommerhemisphäre herrscht ein 24h-Tag mit einem konstanten solaren Zenitwinkel. Schon zwischen Pol und Polarkreis ist der Zenitwinkel dagegen nicht mehr konstant, auch wenn dort zeitweise die Sonne über 24h scheint. Nur am Sommerpol entsprechen sich daher das Maximum der solaren Strahlungsleistung über den Tagbogen und das solare 24h-Mittel; für den Pol der Winterhemisphäre ist das Ergebnis dagegen null (=Nacht). Der Tagbogen der Sonne darf also nicht generell mit dem 24h-Tag gleichgesetzt werden, wie das beim 24h-Faktor4-Tag=Nacht-Ansatz fälschlicherweise geschieht.

Zum besseren Verständnis stellt die nachfolgende Abbildung 2 eine vereinfachte Prinzipskizze für das Verhältnis zwischen dem Tagbogen der Sonne und dem 24h-Tag im Äquinoktium dar:

Abbildung 2: Schematische Prinzipskizze mit dem Vergleich zwischen dem Tagbogen der Sonne (rot=180°) und dem astronomischen 24h-Tag (blau=360°) im Äquinoktium (stark vereinfacht, nicht winkeltreu)

Eine einfache Abschätzung für die Äquinoktien: Die maximale spezifische Strahlungsleistung der Sonne zur Mittagszeit ist auf jeden Fall größer als das Mittel der spezifischen Strahlungsleistung über den 12h-Tagbogen (180°), in das ja auch die Minima nach Sonnenaufgang und vor Sonnenuntergang eingehen. Und dieses Mittel ist wiederum genau doppelt so groß wie das 24h-Tagesmittel (360°). Eine Erweiterung des Tagbogens auf 24h reduziert somit rein mathematisch die durchschnittlich einfallende örtliche Bestrahlungsleistung der Sonne auf die Hälfte und damit wiederum das daraus abgeleitete S-B-Temperaturäquivalent. Es bleibt darauf hinzuweisen, dass S-B-Gesetz und S-B-Inversion nicht auf rein mathematische Mittelwerte angewendet werden dürfen.

In seiner E-Mail vom 29.01.2021 um 09:58 Uhr* an mich und den üblichen Skeptiker-Email-Verteiler hatte ein Dr. Gerhard Kramm ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (wird in der Folge als „Kramm 2021“ bezeichnet) mit einem direkten Temperaturvergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphaere“ verschickt. Die beiden nachfolgenden Abbildungen entstammen diesem PDF:

https://www.eike-klima-energie.eu/wp-content/uploads/2021/05/up_02a-640x269.jpg

Abbildungen 3 a* und b*: Berechnete Oberflächentemperaturen aus dem PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ von Dr. Gerhard Kramm, Fairbanks, Alaska*

Originalbeschreibung: „Abbildung 15. Wie in Abbildung 12, jedoch für die auf dem lokalen Strahlungsgleichgewicht nach Gleichung (3) beruhende Oberflächentemperatur.“
Dazu der Text zu Abbildung 12: „Berechnete solare Einstrahlung für alle Tage des Jahres und alle geographischen Breiten:

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5)

In Abbildung 3b erscheint der Pol der Sommerhemisphäre nach Kramm (2021) realitätswidrig als absoluter Temperatur-Hotspot mit einer Signatur zwischen 275-300 Kelvin, um den Äquator herrschen dagegen Temperaturen zwischen 150 und 175 Kelvin. Die „Maxima nach Weber“ in der Abbildung 3a, abgeleitet mit einer S-B-Inversion aus dem Maximum der örtlichen solaren LEISTUNG [W/m²] ohne Albedo, schwanken dagegen mit dem jahreszeitlichen Sonnenstand um den Äquator („Latitude 0°“) mit bis zu 394 Kelvin. Die Temperaturen reduzieren sich dann zum Pol der Winterhemisphäre gegen null Kelvin. In der Realität werden die theoretischen Maximalwerte aber aufgrund von Albedo, Verdunstung und Konvektion nicht erreicht; die Minimalwerte werden dagegen durch Advektion und Kondensation gestützt. Das Stefan-Boltzmann-Gesetz (S-B-Gesetz) beschreibt das Verhältnis zwischen der momentanen Temperatur und der zeitgleichen spezifischen Strahlungsleistung eines Schwarzen Körpers, Zitat aus Wikipedia:

Das Stefan-Boltzmann-Gesetz ist ein physikalisches Gesetz, das die thermisch abgestrahlte Leistung eines idealen Schwarzen Körpers in Abhängigkeit von seiner Temperatur angibt. Es ist benannt nach den Physikern Josef Stefan und Ludwig Boltzmann.“

Man kann eine Inversion des S-B-Gesetzes über die spezifische solare Strahlungsleistung für eine Ortslage demnach dann und nur dann durchführen, wenn die Sonne dort gerade scheint, also im Tagbogen zwischen Sonnenauf- und -untergang. Wenn wir jetzt in der nachfolgenden Abbildung noch einmal die beiden Modell-Temperaturverläufe mit den Beleuchtungsklimazonen unserer Erde vergleichen, dann finden wir das hemisphärische S-B-Modell voll bestätigt:

Abbildung 4: Vergleich konkurrierender Modelle für die globale Verteilung der Temperatur.
Links mein hemisphärisches S-B-Modell: Oberflächentemperatur für die täglichen solaren Strahlungsmaxima nach Weber aus Kramm (2021)*.
Mitte: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License).
Rechts ein breitenabhängiges 24h-Temperaturmittel: Oberflächentemperatur für die solaren tägliche Mittelwerte nach Kramm et al. (2017) aus Kramm (2021)*


Ergebnis: 
Wie erwartet spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde (Abbildung 4 Mitte) den Verlauf der maximalen örtlichen solaren Strahlungsleistung und zeigen keinerlei Hotspot am Pol der Sommerhemisphäre (Abbildung 5):

Abbildungen 5 a* und b*: Der Modellvergleich aus dem PDF-Dokument von Kramm (2021)* mit jeweils einem Overlay der Beleuchtungsklimazonen (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5)

Anmerkung: Die Overlays der Beleuchtungsklimazonen sind gegenüber den Modellen a und b nicht flächentreu

Bekanntermaßen ist die spezifische solare Strahlungsleistung in den Tropen nun einmal am höchsten und fällt dann zu den Polarregionen kontinuierlich ab (Vergleich hier: Leistung vs. Arbeit in Abb.3b), wie es auch die Overlays in Abbildung 5 prinzipiell zeigen. Von den beiden konkurrierenden theoretischen Klimamodellen in den Abbildungen 3 bis 5 wird dieser natürliche Verlauf lediglich von meinem hemisphärischen S-B-Modell sinnstiftend abgebildet. Mein hemisphärisches S-B-Modell ersetzt als realistisches Modell unserer Erde ohne THE also den konventionellen Faktor4-Tag=Nacht-THE-Ansatz der real existierenden Klimawissenschaft mit einem fehlerhaft konstruierten globalen „natürlichen atmosphärischen Treibhauseffekt“ von konstant 33°C.

Wir können also abschließend festhalten:

Der konventionelle 24h-Faktor4-Tag=Nacht-Ansatz arbeitet mit einem gemittelten 24h-Leistungsdurchschnitt der Strahlungsmenge (Energie) über einen imaginären 24h-Tagbogen der Sonne und berechnet aus diesem 24h-Tag+Nacht-Mittel der solaren Strahlstärke eine viel zu geringe theoretische globale Durchschnittstemperatur von (-18°C). Das Modell von Kramm (2021, Abb. 3b, sowie Abbildungen 4 rechts und 5b) stellt zudem die Beleuchtungsklimazonen der Erde (Abb. 4 Mitte und Overlays in Abb. 5) und damit auch den Antrieb der globalen Zirkulationen (Atmosphäre/Ozeane) auf den Kopf. Im Ergebnis ist das Modell einer „Erde ohne Atmosphaere“, das die zugrunde liegende physikalische Realität auf unserer Erde mit einer sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. 15°C nicht wenigstens prinzipiell abbilden kann, also gar kein gültiges Modell dieser Realität und damit zu verwerfen.

Das hemisphärische S-B-Modell stützt sich dagegen auf die maximale spezifische Strahlungsleistung der Sonne im Zenit des realen Tagbogens und ermittelt daraus die nach dem S-B-Gesetz maximal mögliche Ortstemperatur. Denn eine Interaktion zwischen Sonneneinstrahlung und Materie (also die Erwärmung selbiger Materie) kann nur dann stattfinden, wenn beides tatsächlich physikalisch aufeinander trifft – und das ist nur innerhalb des Tagbogens der Sonne der Fall. Das aus der maximalen spezifischen Strahlungsleistung der Sonne abgeleitete Temperaturmittel für die sonnenbeschienene Tageshemisphäre der Erde beträgt ca. 15°C und stimmt mit der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) überein.

Es kann also keinen vernünftigen Zweifel daran geben, dass eine Inversion des S-B-Gesetzes (Bestrahlungsstärke->Temperatur) nur innerhalb des Tagbogens der Sonne physikalisch korrekt ist. Der konventionelle 24h-Faktor4-Tag=Nacht-Ansatz ist damit zugunsten meines hemisphärischen S-B-Modells zu verwerfen. Damit ist das 24h-Tag=Nacht-THE-Flacherdemodell endgültig Geschichte, es sei denn, irgendjemand führt den wissenschaftlichen Nachweis, dass die Sonne außerhalb ihres Tagbogens die Erdoberfläche direkt zu erwärmen vermag.


*) Nachtrag:
Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abbildungen 3 a und b und 5 a und b sowie Abb. 4 links und rechts) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken in meinem Artikel „Der Faktor4-Tag=Nacht-Ansatz unterstellt einen fehlerhaften 24h-Tagbogen der Sonne“, Zitat:

“CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.“

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.

 




FACHTAGUNG IN STUTTGART – Bilanz nach 20 Jahren deutsche Energiewende: Die Lage ist kritisch

von Holger Douglas

20 Jahre nach Beginn der Energiewende ist die Energieversorgung, vor allem mit Strom, an einer kritischen Grenze. Das ist eine Quintessenz einer Fachtagung »20 Jahre Energiewende«.

Zeit also, rein die Fakten zu prüfen: Was ist aus der Kugel Eis geworden? »Es ging bei dieser Konferenz darum, die Fakten der letzten 20 Jahre Energiewende zu beleuchten«, sagt André Thess, Professor für Energiespeicherung der Universität Stuttgart, der die Tagung auf die Beine gestellt hatte. »Wie ist die technologische Entwicklung vonstatten gegangen? Welche ökonomischen Parameter sehen wir heute im Vergleich vor 20 Jahren?«

Wichtig waren auch die Fragen: »Inwieweit ist die Energiewende ein Projekt, welches, wie manche Zeitgenossen sagen, zur Spaltung der Gesellschaft beiträgt?« und »Wie kann man diese Spaltung überwinden?« »Insofern hat diese Konferenz zwar den technologischen Schwerpunkt gehabt, aber sie hat sich interdisziplinär auch auf die Themen Ökonomie, Politikwissenschaft und sogar Philosophie und Ethik ausgeweitet.«

Die reinen Fakten liegen ziemlich deutlich auf dem Tisch. Deutschland befinde sich auf jeden Fall in einer zunehmend kritischen Lage, stellte Harald Schwarz fest, Lehrstuhlinhaber für »Energieverteilung und Hochspannungstechnik« an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. Er betrachtete die Situation in den Stromnetzen: Wie viel Energie ist noch vorhanden – oder wie weit ist es bis zum Crash?

Das konnte Schwarz nicht klar beantworten. Allerdings: Der Weg bedürfe sicherlich einer Nachjustierung »und zwar massiver Nachjustierung«. Schwarz: »Aus dem einfachen Grund: Wir bauen immer mehr gesicherte Leistung im Stromsystem ab, wir bauen immer mehr völlig fluktuierende, auch völlig ungesicherte, also gesicherte Leistung. PV ist 0 Prozent, Wind ist 1, 2 Prozent, und wir hoffen darauf, dass wir in Zeiten von kalter Dunkelflaute Strom aus dem Ausland bekommen, weil er im Prinzip woanders nicht mehr herkommen kann. Das sind einfach Dinge, wo man sagt, das kann sich eigentlich eine Industrienation nicht leisten, zumal eben auch alle anderen Nachbarländer es nicht so tun.«

Thess selbst führt aus der reinen Energieforschung zuerst das Positive an: »Die letzten 20 Jahre haben in der Energieforschung beeindruckende Fortschritte in den Bereichen Batterie, Forschung, Wasserstoff, Wärmespeicher, Solarenergie, Windenergie gezeigt. In meiner Forschungstätigkeit bin ich überzeugt, dass diese Fortschritte sich früher oder später in technologischem Fortschritt und auch in besseren Energietechnologien manifestieren werden.« Allerdings: »Wenn ich als politisch denkender Bürger die Bilanz der Energiewende sehe, dann muss ich sagen, wenn ein Land wie Deutschland 20 Jahre nach Beginn eines Transformationsprozesses immer noch doppelt so viel CO2 pro Kopf emittiert wie unser befreundetes Nachbarland Frankreich, dann fällt es mir schwer, einen solchen Prozess als Erfolg zu bezeichnen.«

»Der Unterschied kommt daher, dass Deutschland, dass die Energieproduktion in Deutschland auch heute noch relativ viele fossile Energieträger umfasst, währenddessen in Frankreich ein großer Teil der elektrischen Energie durch CO2-neutrale oder CO2-arme Kernenergie erfolgt. Es mag auch eine Rolle spielen, dass die industrielle Wertschöpfung pro Kopf in Frankreich etwas kleiner ist als in Deutschland. Aber ich glaube, dass der primäre Unterschied in dem Portfolio der Energie-Herstellungstechnologien liegt.«

Die Belastungen von Wirtschaft und Gesellschaft untersuchte Fritz Vahrenholt – nicht nur bezogen auf Deutschland. Wahre Abschaltorgien von Kraftwerken leisten sich nicht nur Deutschland, sondern auch mehrere andere europäische Länder. So hat Spanien mindestens sieben Kohlekraftwerke abgestellt, in England läuft kein einziges Kohlekraftwerk mehr. Seit 2017 wurden in Europa Kohlekraftwerke stillgelegt, die insgesamt 20.000 MW an Strom lieferten. Allein in Deutschland wurden rund 11.000 MW abgeschaltet.

Ab 2021 mussten zusätzlich Gaskraftwerke angeworfen werden, um Strom zu erzeugen. Eine sehr teure Angelegenheit. »Die weltweite Gasverknappung und die in Mitteleuropa auftretende Windflaute verstärkt den Effekt«, so Vahrenholt. So war das vergangene Jahr ein Jahr, in dem der Wind sehr schwach wehte, die 30.000 Windräder also noch weniger liefern konnten, als sie ohnehin schon liefern. Ab Februar 2022 kommt zusätzlich der Effekt des Ukrainekrieges hinzu.« Die Gaskrise lasse die kritische Lage noch einmal besonders drastisch zum Vorschein kommen.

Er hat durchgerechnet, wie drastisch sich die gestiegenen Energiekosten auswirken. Denn nicht allein die exorbitanten Preissteigerungen beim Strom treffen vor allem den deutschen Mittelstand, sondern das Brennstoff-Emissionshandelsgesetz. 2022 müssen 30 Euro pro Tonne CO2 für Benzin, Diesel, Heizöl und Gas bezahlt werden. Das verteuert den Diesel um 9,5 Cent pro Liter, Benzin um neun Cent pro Liter und 0,72 Cent die Kilowattstunde Erdgas. Bei einem mittelständischen Unternehmen mit einem Verbrauch von 100 Millionen kWh pro Jahr schlägt das mit Mehrkosten in Höhe von 720.000 Euro zu Buche.

Das besonders Bedrohliche – auch darauf weist Vahrenholt unter anderem in seinem Buch »Unerwünschte Wahrheiten« immer wieder hin – sind die Auswirkungen auf den Preis der Lebensmittel. Denn die Produktion von Lebensmitteln ist direkt mit Energieverbrauch verbunden. Kein Wunder also, dass dem Ölpreis steigende Nahrungsmittelpreise folgen.

Aus physikalischer Sicht ist die Sache klar: »Kohlenwasserstoffe besitzen den Vorteil, dass sie pro Kilogramm oder pro Liter tatsächlich die höchste Energiespeicher-Dichte haben«, rechnet Thess vor. »Ein Liter Benzin oder ein Kilogramm Benzin kann zehn Kilowattstunden speichern. Ein Kilogramm Lithium-Ionen-Batterie kann hingegen nur 0,1 Kilowattstunde speichern. Das sind also zwei Größenordnungen Unterschied. Am Ende kommt es jedoch darauf an, wie teuer die Speicherung pro gespeicherter Kilowattstunde ist. Und da sind wir optimistisch, dass diese wärmebasierte Energiespeicher-Technologie einige Vorteile bietet und besonders die großen Energiespeicher Aufgaben Gigawattstunden und Terawattstunden als ein zusätzlicher Baustein bedienen kann.«

Kohle, Öl und Gas werden auch auf absehbare Zeit lange Zeit unsere Energiequellen sein. Thess: »Wir werden mit Sicherheit noch längere Zeit fossile Energieträger brauchen, weil ihre Energiespeicher-Dichte und ihre Transportfähigkeit und auch ihre Kosten konkurrenzlos günstig sind. Wenn wir allerdings das Energie- und Verkehrssystem weltweit dekarbonisieren wollen, dann werden wir schrittweise auf CO2-neutrale Energiequellen umsteigen müssen. Dazu zählt neben der Sonne und dem Wind laut Weltklimarat IPCC auch die Kernenergie. Auch die Geothermie, auch das Carbon Capture and Storage.«

»Und ich bin der Meinung, dass wir angesichts der Schwierigkeit des bevorstehenden Transformationsprozesses immer an den Spruch eines japanischen Kollegen denken müssen: Energiediversität ist genauso wichtig wie Biodiversität.«

Keine Konferenz dieser Art, die ohne Bashing auskommt. Auch eine reine wissenschaftlich seriöse Fachtagung, die eine möglichst saubere Bilanz ziehen wollte. Thess: »Wir haben auf der einen Seite ein vehementes Interesse an dieser Konferenz gesehen. Wir mussten leider auch feststellen, dass auf die Universität Stuttgart von außen Druck ausgeübt wurde.« An die Leitung der Universität und das Dekanat wurden anonyme Warnmails geschickt, diese Veranstaltung zu verbieten.

So sei Vahrenholt als sogenannter von der »Fossilindustrie« bezahlter »Klimaskeptiker« mit seiner Prognose widerlegt worden, ab 2010 gebe es eine Abkühlung anstelle einer Erwärmung. Zwar falsch, aber damit sollte er mindestens von der Gästeliste gestrichen werden. Eine Fachdiskussion mit ihm sei überflüssig. Doch Thess hält es in einer Debatte für ganz normal, Kritik zu üben. »Diese Kritik sollte sachlich vorgebracht werden.«

»Die Veranstaltung hat trotzdem stattgefunden mit dem geplanten Programm, und ich möchte auch der Universität Stuttgart ein ausdrückliches Lob ausstellen. Die Universität Stuttgart hat sich nicht von diesem Druck beeinflussen lassen. Sie hat die Veranstaltung trotzdem durchführen lassen, und wir konnten diese Veranstaltung ungestört abhalten.«

Für Thess ein Erfolg der Wissenschaftsfreiheit: »Ich halte das für ein wichtiges Signal für die Wissenschaftsfreiheit, weil ich der Meinung bin, wo – wenn nicht an einer deutschen Universität – können kontroverse Diskussionen über solche wichtigen Themen wie Energie, Klima, Energiestrategie und Energiewende geführt werden.«
TE wird auf die einzelnen Vorträge weiter eingehen.

Der Beitrag erschien zuerst bei TE hier

 




Die zunehmende Bebauung und Versiegelung in Deutschland heizt uns kräftig ein – der zunehmende Wärmeinseleffekt. Teil 2

– Entwässerung und Austrocknung der Landschaft –

Josef Kowatsch, Stefan Kämpfe

Die gezielte Entwässerung der Böden in der freien Landschaft dient verschiedenen Zwecken: Schaffung oder Verbesserung von Bau- oder Acker- und Weideland, Anlage und Unterhaltung von Verkehrstrassen, Ermöglichung und Aufrechterhaltung des Bergbaus, Ausbau der Flüsse für die Binnenschifferei, angeblicher Hochwasserschutz durch Stein-oder Betonmauern mit breiten Fundamenten. Generell enthalten die meliorierten Böden weniger Wasser; fast immer sinkt auch der Grundwasserspiegel. Die einst humusreiche, landwirtschaftliche fruchtbare und wasserspeichernde Schicht geht eh verloren. Das im Boden enthaltene Wasserangebot nimmt also mehr oder weniger stark ab; die kühlende Verdunstung verringert sich, was im Sommerhalbjahr zu einer stärkeren Erwärmung der Bodenoberfläche führt; diese Wärme wird an die Luft abgegeben – es stellt sich in den unteren Schichten der Atmosphäre eine höhere Lufttemperatur ein. Das verringerte Feuchteangebot führt außerdem zu weniger Dunst-, Nebel- und Hochnebelbildung – eine längere und intensivere Besonnung ist die Folge. Nicht nur die Landschaft trocknet aus und versteppt zusehends, sondern auch die in der freien Natur befindlichen DWD-Wetterstationen zeigen höhere Temperaturen an, was unwissende Politiker und Medienvertreter irrtümlicherweise wieder als Beweis für den CO2-Klimawandel anführen,

Abb.1: Bild einer gezielten Wald- und Wiesentrockenlegung. Foto Kowatsch

Kleinere Entwässerungsmaßnahmen dürfte es schon in der Antike und im Mittelalter gegeben haben; doch erst in der Neuzeit schufen die immer zahlreicheren Arbeitskräfte und die wachsenden wirtschaftlich-technischen Möglichkeiten die Basis zur Planung von Großprojekten, deren Umsetzung bis heute mehr oder weniger deutliche negative ökologische und klimatische Auswirkungen verursachen. Einige wichtige Großprojekte seien kurz genannt:

  1. Begradigung der Oder; Rodung und Trockenlegung des Oderbruchs (1747 bis 1762 unter Friedrich dem Großen). Diese führten – einschließlich der nun möglichen Besiedelung, zu einer ökologischen Verarmung und einem insgesamt trockeneren, zu stärkeren Schwankungen (Extremen) neigenden Klima; und weil die Oder heute höher fließt, als weite Teile des Bruchs, schwebt das Damoklesschwert einer Hochwasserkatastrophe bei jedem Oder-Hochwasser (mögliche Deichbrüche!) über dem Bruch. Viele andere Lücher und Brücher Brandenburgs erlitten das gleiche Schicksal; das Havel-Luch schon um 1720. Dass Brandenburg heute zu den sich am stärksten erwärmenden Regionen Deutschlands gehört, ist unter anderem eine Spätfolge dieser erst langfristig voll wirkenden Meliorationen.
  2. Urbarmachung des Donau-Mooses bei Ingolstadt ab 1790 unter Karl Theodor von der Pfalz mit ähnlichen, langfristigen Folgeschäden wie im Oderbruch; zusätzlich Sackungen und Schrumpfungen der Geländeoberfläche um stellenweise mehr als drei Meter durch Torfzehrung (Sauerstoffzutritt nach Entwässerung). Andere Feuchtgebiete und Flüsse des Alpenvorlandes, wie etwa der Lech, wurden ebenfalls melioriert.
  3. Begradigung und Verkürzung der Länge des Oberrheins (1817 bis 1876, projektiert und begonnen durch den Ingenieur Johann Gottfried Tulla). Die damit verbundene teilweise Trockenlegung großer Teile der Rheinauen begünstigte zwar die Ausrottung der Malaria, den Abbau von Sanden oder Kiesen, die Besiedelung und die Schifferei, führte aber ansonsten zu den schon genannten ökologisch-klimatischen Problemen. Hochwasserwellen des Oberrheins verschonen nun das meliorierte Gebiet, gelangen aber umso schneller und intensiver an den Mittel- und Niederrhein.
  4. Emsland-, Küsten-, Alpenplan und das Programm Nord. In den 1950er Jahren vom Bundestag beschlossene Urbarmachungen von Feuchtgebieten, um nach dem verlorenen Zweiten Weltkrieg Flüchtlingen eine neue Bleibe und ein wirtschaftliches Auskommen zu sichern. So waren um 1950 fast 20% der Bevölkerung des Emslandes Vertriebene aus den ehemaligen Ostgebieten. Bei diesen Meliorationen wurden die letzten, größeren intakten Hoch- und Niedermoore Westdeutschlands zerstört.
  5. Trockenlegung und Entwässerung (Melioration) der Wische in Sachsen-Anhalt und der Friedländer Großen Wiese bei Ferdinandshof in Mecklenburg-Vorpommern als Jugendobjekt der DDR (1958 bis 1962) sowie weitere Komplexmeliorationen von DDR-Feuchtgebieten bis 1989. Meistens wurde zu tief entwässert, was die Vermullung und damit die Austrocknung und die Erwärmung sowie die Winderosion der obersten Bodenschichten zur Folge hatte (einmal ausgedörrter, zu lange dem Luftsauerstoff ausgesetzter Torf ist hydrophob – er nimmt kein Wasser mehr auf). Nach anfänglichen Erfolgen brachen die Grün- und Ackerlanderträge auf diesen „übermeliorierten“ Flächen dramatisch ein; heute wachsen dort fast nur noch Quecken und Brennnesseln.

Aufgrund dieser Meliorationen existiert heute in ganz West- und Mitteleuropa fast kein größeres, völlig intaktes Nieder- oder Hochmoor mehr. Hinzu kommen die nicht unerheblichen Folgeschäden des Bergbaus. Die in Ostdeutschland und am Niederrhein betriebenen Braunkohlen-Tagebaue zogen umfangreiche Entwässerungsmaßnahmen nach sich; allerdings können sie nach Auskohlung meist zu ökologisch höherwertigen Flächen mit vielen Seen und Feuchtgebieten rekultiviert werden, als vor Beginn des Bergbaus. In der Lausitz und im Leipziger Land kann man die Erfolge dieser Rekultivierungsmaßnahmen bereits deutlich sehen. Problematischer ist die Situation im Ruhrgebiet, wo der mittlerweile beendete Steinkohlenbergbau zu „Ewigkeitskosten“ führt. Nach Auskohlung der Flöze senkten sich weite Bereiche des „Ruhrpotts“ unter das Höhenniveau der Flüsse, so dass die Ländereien, um nicht überflutet zu werden, auf alle Ewigkeit mit Entwässerungspumpen trocken gehalten werden müssen. Auch Teile der ehemaligen Kohlegruben müssen, auch zum Schutz des Grundwassers vor Verunreinigungen, entwässert werden; das teilweise sehr warme Grubenwasser erwärmt dann die Oberflächengewässer und den Rhein – ein weiterer, meist wenig beachteter Wärmeinseleffekt.

Nutzungs- und Bewirtschaftungsänderungen in Land- und Forstwirtschaft

Seit der Jungsteinzeit wird in Mitteleuropa Ackerbau betrieben; nach und nach kam die Forstwirtschaft hinzu. Aber nie wurden unsere Äcker und Wälder intensiver genutzt, als gegenwärtig. Noch bis in die 1950er Jahre prägten vielerorts kleinflächige Äcker, artenreiche Feldraine, Streu- und Obstwiesen, Hecken und Baumreihen unsere Agrarlandschaft; mancherorts ist diese liebliche Landschaftsstruktur noch sichtbar.

Abbildungen 2a und 2b: Oben (2a) eine den früheren Verhältnissen ähnelnde Agrarlandschaft mit Orchideen-Streuwiese (im Vordergrund Große Händelwurz), Hecken und Baumreihen sowie artenreichen Feldrainen an unversiegelten Wegen zwischen nicht zu großen Schlägen; im Hintergrund der Wald des Großen Ettersberges. Nur etwa 5 Km weiter südlich auf der Hochfläche westlich von Weimar (2b, unten) die baum- und strauchlose, von riesigen Ackerflächen dominierte Agrarlandschaft mit betoniertem Wirtschaftsweg und der Monokultur Winterraps für ökologisch schädlichen Bio-Diesel. Fotos: Stefan Kämpfe

Abbildung 3: Die Feldwege werden zusätzlich am Straßenrand mit Drainagen versehen, von den landwirtschaflichen Flächen münden etwa alle 10 bis 15m gelbe Sickerschläuche in 1m Tiefe –siehe ganz vorne links – in den schwarzen Entwässerrungshauptleiter.

 

Das „Ausräumen“ der Agrarlandschaft sowie das Befahren mit schweren Maschinen, aber auch der im Zuge der Energiewende wachsende Anteil erst spät den Boden deckender Feldfrüchte wie Mais, förderten die Austrocknung, die Bodenverdichtung und oberflächlich sich stärker erwärmende Böden – ein großflächiger WI-Effekt.

Ähnliches geschah in der Forstwirtschaft. Viele der einstigen standortgerechten Laubmischwälder wurden ab dem 18. Jahrhundert aus wirtschaftlichen Gründen in Kunstforste umgewandelt (in den Vorgebirgslagen und niederschlagsreicheren Gegenden meist Fichten-Monokulturen, auf leichteren Sandböden oft lichte Kiefernwälder). Während ein Buchenwald während der belaubten Zeit nur etwa 3% des Lichtes auf den Waldboden lässt und sich deshalb selbst an sonnigen Hochsommertagen nur wenig erwärmt, dringt in einen Kiefernwald viel mehr Licht ein und erwärmt den Boden stark. Aussagefähige Studien hierzu sind selten; doch kann man bei ansonsten identischen Standortbedingungen an sonnigen Sommertagen in einem Kiefernwald mit etwa 2 bis 5 Grad höheren Temperaturen rechnen. Auch andere Nadelbäume wie Fichten, Tannen und Douglasien, erwärmen sich aufgrund ihrer geringeren Albedo stärker, als Laubbäume, Näheres dazu hier. Und auch breitere, stärker befestige Waldwege; breite Rückegassen für Harvester und Bodenverdichtungen durch schwere Forstmaschinen lassen heute mehr Licht und Wind in den Wald, fördern also dessen stärkere Erwärmung und Austrocknung. Wie wichtig naturnahe Laubwälder für die Abkühlung an heißen Sommertagen sind, zeigt ein schon älteres Beispiel aus Weimar.

Abbildung 4: Isothermenkarte für das Weimarer Stadtgebiet am 10. August 1950, Nachmittag. Während in den naturnahen Laubmischwaldgebieten des Ettersberges, des Webichts und des Belvederer Forstes nur 24 bis 27°C gemessen wurden, sind es im Freiland bei gleicher Höhenlage 28 bis 29°C, in den bebauten Stadtvierteln sogar 29 bis 31°C. Bildquelle Salzmann, M.: Die physisch-geografischen Verhältnisse Weimars. Weimarer Schriften, Stadtmuseum Weimar, Heft 22, 1974.

Die Energiewende als Treiber der Austrocknung in der freien Landschaft

In Deutschland wurden, beginnend mit den späten 1980er Jahren und ganz massiv zwischen den späten 1990er und den späten 2010er Jahren, über 30.000 Windkraftanlagen, die meisten an Land, aufgestellt. Diese bremsen tagsüber den kühlenden Wind; in den Nächten stören sie die Abkühlung und damit die Ausbildung der bodennahen Inversion und die Taubildung, weil die Luft stärker verwirbelt und durchmischt wird. Außerdem benötigt jedes Windrad eine eigene Zufahrt (Vegetationsverlust, Bodenverdichtung) sowie ein massives Betonfundament. Und selbst hell angestrichene Masten absorbieren einen Teil des Sonnenlichtes; diese Wärme wird dann in den Nächten, ähnlich wie bei einem Gebäude, an die Umgebung abgegeben.

Abbildung 5: Blick vom Aussichtsturm der Erfurter EGA über Dom und St. Severi in die freie Landschaft; Erfurt ist von Windparks umzingelt und auch deshalb „Dürre-Hauptstadt Deutschlands“. Foto: Kämpfe

Für die klimatischen Bedingungen Deutschlands gibt es hierzu bislang kaum belastbare Studien; aber solche aus den USA lassen auch für Mitteleuropa eine merkliche Erwärmung erwarten; Näheres hier und hier.

Die großflächigen Solarparks reduzieren oder zerstören die Vegetation, verringern die Albedo (Rückstrahlungsvermögen) und tragen damit wesentlich zur Landschaftserwärmung bei; Näheres hier. Und auch die Biogasanlagen tragen, zumindest lokal, zur Erwärmung und Austrocknung bei.

Die Luftfeuchtigkeit über Deutschland – nahm sie ab?

Diese Fragestellung interessiert besonders für die Monate von März bis August, also für diejenige Zeit des Jahres, welche für das Wachstum der Pflanzen am wichtigsten ist (meteorologische Jahreszeiten Frühling und Sommer). Grundsätzlich werden zwei Messgrößen unterschieden, die relative in Prozent und die absolute Luftfeuchte in Gramm Wasser je Kilogramm Luft. Erstere sinkt, wenn bei einem bestimmten Wasserdampfgehalt einer Luftmasse die Lufttemperatur steigt, denn sie ist die Verhältniszahl zwischen tatsächlich vorhandener und maximal möglicher Wasserdampfmenge einer Luftmasse bei einer bestimmten Temperatur (warme Luft hat eine viel höhere maximale Wasserdampfaufnahmekapazität als kalte). Die relative Luftfeuchte spiegelt also indirekt auch immer die Temperaturverhältnisse wieder. Die absolute sagt hingegen etwas darüber aus, wie groß überhaupt die in der Luft enthaltene Wassermenge ist. Die Datensätze liegen für ein Planquadrat, welches ganz Deutschland einschließt, seit 1948 beim NOAA (Amerikanischer Wetterdienst) für verschiedene Luftdruckniveaus vor; besonders interessieren natürlich die Verhältnisse in Bodennähe (1.000 hPa) sowie in der für die Luftmassenbestimmung besonders wichtigen 850-hPa-Fläche, was etwa 1.500 Metern Höhe entspricht.

Abbildungen 6a und 6b: Entwicklung der relativen Feuchte in einem Planquadrat über Mitteleuropa, welches Deutschland einschließt, für den meteorologischen Frühling (oben) und die einzelnen Frühlingsmonate (6b, unten). Seit dem Klimasprung um 1988 ist die Luft in den bodennahen Schichten relativ deutlich trockener. Besonders März und vor allem der April trockneten stark aus; der Mai weniger dramatisch.

Bei Betrachtung der absoluten Luftfeuchte zeigt sich im Frühling jedoch Folgendes:

Abbildung 7: Entwicklung der absoluten Feuchte in einem Planquadrat über Mitteleuropa, welches Deutschland einschließt, für den meteorologischen Frühling in Bodennähe (grün) und im 850-hPa-Niveau (blau). Eindeutige Trends und ein Klimasprung sind nicht zu erkennen – der absolute Wasserdampfgehalt der Luft nahm im Lenz nur unwesentlich ab; ein Beleg dafür, dass unsere Luft im Lenz wärmer und vor allem deshalb relativ trockener wurde.

Sommer: Noch überraschender sind die sommerlichen Verhältnisse:

Abbildungen 8a und 8b: Entwicklung der relativen Feuchte (oben) in einem Planquadrat über Mitteleuropa, welches Deutschland einschließt, für den meteorologischen Sommer und 8b, unten, die absolute Luftfeuchte. Seit dem Klimasprung um 1988 ist die Luft in den bodennahen Schichten auch im Sommer relativ deutlich trockener; aber die absolute Luftfeuchte stieg leicht an – die Sommerluft enthält heuer etwas mehr Wasserdampf und ist dadurch auch schwüler. Signifikant sind diese Trends aber nicht.

Die Luftfeuchtigkeit über Deutschland

Folgendes bleibt festzuhalten: Die Luft über Deutschland wurde nur relativ trockener, weil sie sich aus verschiedensten Gründen erwärmte. Aber der absolute Wasserdampfgehalt änderte sich kaum.

Wirkte stark erwärmend und austrocknend: Die zunehmende Sonnenscheindauer des Sommerhalbjahres

Über dieses Phänomen und dessen Ursachen hat KÄMPFE schon häufig ausführlich berichtet. Gerade haben wir die sonnigste erste Jahreshälfte aller Zeiten erlebt; Näheres dazu hier. Die zunehmende Sonnenscheindauer wirkt besonders im Sommerhalbjahr stark erwärmend und austrocknend. Stellvertretend seien hier nur die Verhältnisse für den meteorologischen Sommer gezeigt; April, Mai und September zeigen ein grob ähnliches, nicht ganz so deutliches Verhalten.

Abbildung 9: Deutliche Verzahnung von Sonnenscheindauer und Lufttemperaturen im Sommer. Um die beiden sehr unterschiedlichen Größen in einer Grafik zu veranschaulichen, wurden sie in Indexwerte umgerechnet; die sonnigsten Sommer, welche fast stets auch die wärmsten waren, sind gekennzeichnet.

Geänderte Großwetterlagenhäufigkeiten als Temperatur- und Austrocknungstreiber

Neben den verschiedensten WI-Effekten und der zunehmenden Besonnung trugen auch geänderte Häufigkeitsverhältnisse der Großwetterlagen stark zur Erwärmung und Austrocknung bei; besonders im Zeitraum von März bis November. Stellvertretend seien hier die Verhältnisse für den meteorologischen Sommer gezeigt, welcher am stärksten von der Erwärmung und Austrocknung betroffen ist.

Abbildung 10: Bis ins späte 20. Jahrhundert waren im Sommer kühlend wirkende Großwettertypen (West, Nordwest und Nord) viel häufiger als die wärmenden Süd, Südwest, Ost und Hochdruckgebiet über Mitteleuropa; doch seit etwa der Jahrtausendwende überwiegen Letztere. Diese Verschiebung der Häufigkeitsverhältnisse wirkte neben der zunehmenden Besonnung stark erwärmend. In den Frühjahrs- und Herbstmonaten herrschen grob ähnliche Verhältnisse Klassifikation der Großwettertypen nach HESS/BREZOWSKY und Darstellung der Sommertemperaturen als Indexwerte, um sie besser zusammen mit den Häufigkeiten veranschaulichen zu können.

Für diese geänderten Häufigkeitsverhältnisse hin zu wärmeren und sonnigeren Großwetterlagen gibt es zwei wesentliche Ursachen. Einerseits begünstigt die seit etwa Mitte der 2000er Jahre sehr geringe Sonnenaktivität Extremwetterlagen. Und besonders im April und von Juni bis November übt die AMO, welche sich gegenwärtig (noch) in einer Warmphase befindet, einen wesentlichen Einfluss auf die Zirkulationsverhältnisse aus. Auch hier reicht es, den besonders aussagefähigen Sommer zu betrachten.

Abbildung 11: Mit gewissen Qualitätseinbußen liegen die AMO-Werte und die sommerlichen Deutschland-Temperaturen bis 1856 zurück vor. Man erkennt einen positiven, recht deutlichen, sogar signifikanten Zusammenhang; in AMO-Warmphasen ist es tendenziell deutlich wärmer. Auch für den Sommer 2022 ist mit eher hohen AMO-Werten zu rechnen, was die Wahrscheinlichkeit für einen eher warmen Sommer erhöht. Man achte auf das Fehlen sehr kühler Sommer um 1940 und ab 1988

Fazit:

Die angebliche CO2-bedingte Klimaerwärmung – die Sommer werden immer heißer und trockener – findet vorrangig in den wachsenden Wärmeinseln, wegen geänderter Landnutzung und wegen längerer Besonnung sowie wegen häufigerer Süd-, Südwest- und Hochdruckwetterlagen statt. Aber auch die freie Landschaft entwickelt sich zu einer flächigen Wärmeinsel. Die meisten DWD-Wetterstationen befinden sich an mehr oder weniger stark WI-belasteten Standorten. Auch Frühling und Herbst sind von der Erwärmung und Austrocknung betroffen; aber weniger als der Sommer. Es ist keine CO2-Erwärmung, sondern eine menschengeschaffene täglich sich ausweitende Wärmeinselerwärmung, die längst die land- und forstwirtschaftlichen Flächen erfasst.

Der Anteil der landwirtschaftlich genutzten Fläche an der Landfläche von Deutschland liegt bei 48,0 % (Stand: 2011). Der Anteil der bebauten Fläche zusätzlich bei 15% (Städte, Gemeinden, Straßen)

Vor allem werden die Sommer heißer, während der WI-Effekt im Winter (wenig Besonnung, viel Wind) oft weniger ausgeprägt ist. Der Winter WI-effekt wird in bebauten Gebieten hauptsächlich durch die Gebäudeheizungen erzeugt.

Abb.12: Ein angeblicher CO2 Erwärmungseffekt müsste im Sommer gleich erwärmend wirken wie im Winter. Tatsächlich erwärmte sich aber Letzterer (rechts) seit 35 Jahren kaum noch.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Klimaforscher, aktiver Naturschützer,