Wo Licht ist, ist auch Schatten!

Wind- und Solarenergie als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien

von Frank Hennig

Wind- und Solarenergie werden als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien beschrieben. Sie wären emissionsfrei, von negativen Wirkungen keine Rede. Dabei ist jedem nüchtern und nicht interessengeleitet denkenden Menschen klar, dass jede Energietechnologie Auswirkungen auf die Umwelt hat. Wo Licht ist, ist auch Schatten.

 

Jeder heiße Tag im Sommer wir derzeit in den regierungsbegleitenden Medien apokalyptisch dramatisiert und mit dem Klimawandel durch steigenden CO2-Anteil der Luft begründet. Regionale Besonderheiten für verschiedenes Wetter gab es immer. Heutzutage kommen mit dem exzessiven Ausbau von Wind- und Solaranlagen weitere Faktoren hinzu.

 

Heizen mit Photovoltaik

Wind- und Solarenergie werden uns als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien beschrieben. Sie wären emissionsfrei, von negativen Wirkungen ist nicht die Rede. Dabei ist jedem nüchtern und nicht interessengeleitet denkenden Menschen klar, dass jede Energietechnologie Auswirkungen auf die Umwelt hat. Wo Licht ist, ist auch Schatten. Mit dieser Aussage tritt man aber sehr nah an die Abbruchkante der deutschlandtypischen Schwarz-Weiß-Diskussion, die Gegenmeinungen kaum zulässt und Wissenschaft für abgeschlossen erklärt. Das führt zu ideologischer und pseudoreligiöser Sicht, die den gegenwärtigen Absolutismus der Klimadiskussion eigen ist. Gut bekannt aus DDR-Zeiten ist mir die Frage „auf welcher Seite der Barrikade stehen Sie denn?“, die man schon zu hören bekam, wenn vorsichtig Kritik am bestehenden System geäußert wurde.

Tagebaue, Bergwerke und Stauseen zeigen deutlich die Auswirkungen von Energietechnologien, heute auch landschaftsfressende Wälder von Windkraftanlagen (WKA). Die Photovoltaik (PV) hingegen erfreut sich in der Bevölkerung relativ großer Sympathie. Die Platten liegen einfach so auf Dächern und Freiflächen herum, machen keine Geräusche und blinken nicht, abgesehen von einigen Reflexionen stören sie optisch nicht. Sie schaden anscheinend der Tierwelt nicht, jedenfalls häckseln sie keine Fluglebewesen. Dass Freiflächenanlagen der Biodiversität schaden, Feldlerchen und anderen Wiesenbrütern Lebensraum nehmen und auch eine Insektenfalle sein können (die die spiegelnden Platten als Wasser deuten und ihre Eier ablegen wollen), fällt vordergründig nicht auf. Fledermäuse trinken im Flug und können die spiegelnden Platten mit einer Wasseroberfläche verwechseln. Eidechsen dagegen gefällt die sommerliche trockene Hitze unter den Platten.

Plattenheizkörper im Sommer

Wie wirken Freiflächen-PV-Anlagen im Vergleich zu natürlichen Flächen? Auf einer Wiese oder Offenland wird das Licht diffus gestreut und hilft, die Bodenfunktionen zu erfüllen: Photosynthese, Erwärmung, Verdunstung von Wasser. Nur wenig Licht wird reflektiert, Wärme wird gespeichert und nachts wieder abgegeben, es gibt einen natürlichen Temperaturausgleich. Ähnlich verhält es sich mit den Wäldern, die durch die Verschattung vor allem Temperaturspitzen dämpfen und Wasser speichern.

Bei PV-Anlagen werden maximal 20 Prozent des Sonnenlichts, im Durchschnitt eher weniger, in Strom umgewandelt. Die nicht umgewandelte Energie geht, von etwas reflektierter Strahlung abgesehen, fast vollständig in Wärmeenergie über. Die Temperatur der Paneele liegt zwischen 20 und 25 Grad über der der Umgebung. Ging man früher von etwa 60 Grad maximaler Oberflächentemperatur im Sommer aus, sprechen Insider heute von bis zu 100 Grad, die an windstillen Hitzetagen erreichen werden können.

Warme Luft steigt nach oben, über den PV-Flächen bildet sich eine Warmluftglocke. Es kommt zu einer Luftzirkulation, die kühle und feuchtere Bodenluft aus der Umgebung nachzieht, was zu einer örtlichen Erwärmung und Trocknung führt.

Wie verhalten sich die Temperaturen konkret? Hier als Beispiel eine Fläche von etwa sechs Hektar einer PV-Fläche, das Foto entstand im August 2024 um die Mittagszeit.

 

Das gleiche Foto mit Infrarotfilter zeigt folgendes Bild:

Die Lufttemperatur betrug 22 Grad, um die Anlage war sie zwei bis drei Grad höher. Die Temperaturunterschiede zwischen der rechten und linken Seite der Anlage lassen verschiedene Typen von Paneelen mit verschiedenen Wirkungsgraden vermuten. Auf der rechten Seite sind einige inhomogene Stellen an der Überwärmung zu erkennen.
Mit höheren Umgebungstemperaturen steigen auch die Paneeltemperaturen.

Mehr Wärme in der Wärme

Wie viel Wärme wird emittiert? Sehen wir uns beispielhaft die Anlage in Neuhardenberg (Brandenburg) an. Sie belegt 240 Hektar, etwa 340 Fußballfelder, und ist mit einer installierten Leistung von 155 Megawatt peak (MWp) – also bei optimalem Sonnenstand – eine der größten im Land. Es existieren aber noch deutlich größere (Witznitz bei Leipzig – 500 ha).

Die elektrische Leistung der Paneele ist temperaturabhängig, bei starker Sonneneinstrahlung und hoher Umgebungstemperatur steigt die Temperatur der Platten auf über 60 Grad. Das lässt die Stromausbeute um 20 Prozent sinken, also den Wirkungsgrad auf etwa 16 statt 20 Prozent. Ein umso größerer Teil des Sonnenlichts – 84 Prozent – geht in die Erwärmung der Platten über. Wenn also zu diesem Zeitpunkt (mittags) 16 Prozent in Strom umgewandelt werden (130 MW), emittieren die Paneele eine Wärmeleistung von 682 MW in die Umgebung.

Das sind etwa 10 Prozent der insgesamt in Berlin installierten Fernwärmeleistung, die von dieser Anlage in Neuhardenberg im Hochsommer in die Umgebung emittiert wird. Die Wirkung entspricht einem riesenhaften Plattenheizkörper, der die ohnehin warme Umgebung weiter aufheizt.

Ein Bild, das Luftfotografie, Vogelperspektive, draußen, Luftbild enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild Luftaufnahmen Lausitz

Die Beweislast, dass diese Wärmeemission einer PV-Freiflächenanlage keine negative Umweltwirkung hat, dürfte bei den Protagonisten der Energiewende liegen.

Abends und nachts kühlen die Paneele durch Luftströmung auf der Ober- und Unterseite schnell aus, die Wärmespeicherung ist im Vergleich zu natürlichem Boden gering.

Im Verbund mit der Klimawirkung von Windkraftanlagen, die uns -zigtausende von Windkraftanlagen in Deutschland und Europa bescheren, ändert sich das regionale Klima. Bisher schon trockene Regionen im Osten Deutschlands trocknen weiter aus.
Im Gegensatz zu Dachanlagen, die ökologisch tote Flächen belegen, zerstören PV-Freiflächenanlagen unmittelbar die Natur und vor allem die klimaregulierende Wirkung der Landschaft, sie reduzieren Biodiversität und produzieren Strom zu Zeiten, in denen ohnehin zu viel im Netz ist. Kein Investor wird jedoch verpflichtet, in gleichem Maß Stromspeicher oder Backup-Kraftwerke zu bauen. Die Gewinne streichen die Investoren ungeschmälert ein, während die Systemkosten und der Aufwand für den immer weiter nötigen Netzausbau sozialisiert werden. Grüner Kapitalismus in Reinkultur.

Als Kompromiss wird die so genannte Agri-PV heftig beworben. Dies ist eine Kombination, bei der zwischen senkrecht angebrachten, aufgeständerten oder in größeren Abständen aufgebauten PV-Modulen Landwirtschaft betrieben werden kann. Der Kompromiss besteht darin, dass weniger Strom produziert wird, als bei einer vollflächig belegten Anlage und weniger landwirtschaftlicher Ertrag eingefahren wird, als bei reiner Feldwirtschaft. Es handelt sich nicht, wie oft behauptet, um eine Doppelnutzung (das Sonnenlicht kann nur einmal genutzt werden), sondern um eine kombinierte Nutzung, die in jedem Fall naturverträglicher ist, als die geschlossene Spiegelfläche.

Aber auch hier gibt es Licht und Schatten, im wahrsten Sinne des Wortes. Im Sommer ist die teilweise Verschattung der Anbaufläche von Vorteil, die Fläche trocknet nicht so schnell aus und es ist trotzdem genug Licht für das Pflanzenwachstum vorhanden. In den dunklen Monaten hingegen trocknet diese Fläche kaum aus, im Frühjahr erwärmt sich der Boden langsamer, Pflanzenwachstum wird gehemmt. Er ist ideales Gebiet für Flechten und Moose, die anderen Bewuchs zurückdrängen.

Wie überall bei den „Erneuerbaren“ geht es auch bei der Freiflächen-PV nicht ums „Klima“, sondern um Geld. Pachtpreise von bis zu 5.000 Euro pro Hektar und Jahr sind über Vertragslaufzeiten von 30 Jahren eine sehr gute Einnahme, der sich fast kein Flächenbesitzer verweigern wird. Neuanlagen unterliegen nunmehr jedoch dem so genannten Solarspitzengesetz, wonach die Anlagen abregelbar sein müssen und die Vergütung bei negativen Marktpreisen entfällt. Damit dürfte das Investoreninteresse gedämpft werden.

Wer heizt noch?

Vermutlich ist bei einigen progressiven Energiewendern beim Lesen bis zu diesem Absatz schon der Blutdruck gestiegen und sie wollen einwerfen, dass auch Industrie und konventionelle Kraftwerke Wärme emittieren. Das ist richtig, widerspricht aber nicht den Ausführungen zur Freiflächen-PV. Industrielle Abwärme ist zum großen Teil unvermeidbar, aber mit weitergehender Deindustralisierung auf dem Weg von der Habeck-Rezession in die Merz-Depression und insbesondere mit der Abwanderung energieintensiver Industrie nimmt diese Wärmemenge ab.

Konventionelle Kondensations-Kraftwerke werden mit einem Wirkungsgrad von 35 bis 43 Prozent betrieben, das heißt, bis zu zirka zwei Drittel der eingesetzten Energie müssen als Wärme abgeführt werden. Jedoch wird der größte Teil der Wärme nicht an die Umgebungsluft abgegeben, sondern bei Anlagen mit Nasskühltürmen über die Verdunstungswärme des Kühlwassers, bei Anlagen an Fluss- oder Küstenstandorten über das Fluss- oder Seewasser. Auch hier gilt der Trend – es werden immer weniger Anlagen.

Wenn es künftig noch mehr heiße Sommertage gibt und mehr Trockenheit, kann das Folge des Klimawandels sein und regional direkte Folge des exzessiven Ausbaus von Wind- und Solaranlagen, die eigentlich eines verhindern sollten – eine weitere Erwärmung. Sie schaden mehr, als sie nutzen, aber es lässt sich prächtig damit Geld verdienen.

Mit freundlicher Unterstützung von www.luftaufnahmen-lausitz.de
Weiteres Material zur Wirkung von PV-Anlagen: https://www.energiedetektiv.com/

Der Beitrag erschien zuerst bei TE hier

 




Frankreichs Wasserkraft-Passion und die EU

Die Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen ist nicht zielführend

Edgar L. Gärtner

 

Das französische System der Elektrizitätsversorgung unterscheidet sich nicht nur durch seinen hohen Kernenergie-Anteil von den Systemen seiner unmittelbaren Nachbarländer, sondern auch durch die relativ hohe Bedeutung von Wasserkraftwerken an großen Stauseen und manchen Flüssen. Zwar reicht die Produktion der französischen Wasserkraftwerke mit etwa 75 Terawattstunden (TWh) im Jahre 2024 bei weitem nicht an das Niveau Norwegens heran, wo Wasserkraftwerke im regenreichen Jahr 2024 die Rekordmenge von 140 TWh und damit 89 Prozent der gesamten Elektrizitätsproduktion erzeugten.

Aber die Wasserkraftwerke erzeugten in Frankreich in den letzten Jahren im Schnitt immerhin etwa 12 Prozent der nationalen Bruttostromproduktion gegenüber nur etwa 4 Prozent in Deutschland. Im Jahre 2024 waren es in Frankreich sogar fast 14 Prozent. Damit ist die Hydroelektrizität nach der Kernkraft Frankeichs zweitwichtigste Stromquelle. Dabei ist das Wasserkraft-Potenzial in Frankreich noch keineswegs ausgeschöpft. Es könnten ohne Weiteres 100 TWh gewonnen werden, stünden dem nicht ökologische Einwände und bürokratische Hindernisse entgegen.

Als besonderer Hemmschuh erweist sich die Regulierung durch Brüssel Es geht dabei nicht nur um die SUP- und UVP-Richtlinie, die in Verbindung mit dem Widerstand grüner NGOs einen langwierige Papierkrieg nach sich ziehen können, sondern in neuer Zeit mehr um die Richtlinien 2006/123/EG (Dienstleistungsrichtlinie) über die Transparenz von Projekten und die Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen.

Danach müssen Wasserkraftprojekte ab einer gewissen Größe durch Ausschreibungen grundsätzlich für Wettbewerber geöffnet werden. Damit wird zum einen die historisch gewachsene Monopolstellung des inzwischen verstaatlichten Versorgungskonzerns Électricité de France (EDF), der die Nutzung der Wasserkraft in Frankreich heute zu 70 Prozent kontrolliert, in Frage gestellt. Nach dem Ende der deutschen Besatzung im Zweiten Weltkrieg gab es in der französischen Gesellschaft einen breiten antifaschistischen Konsens über den Aufbau eines national einheitlichen Stromversorgungssystems mit garantiertem Anschluss auch isolierter Häuser außerhalb geschlossener Ortschaften.

Es gibt aber nicht nur historische, sondern auch physische Gründe für die Monopolstellung eines Talsperrenbetreibers in einem Wassereinzugsgebiet (Bassin). Um die Fischfauna schützen, die Hochwassergefahr vermindern, die landwirtschaftliche Bewässerung, die Kühlung der Kernreaktoren und die Schiffbarkeit eines Gewässers garantieren zu können, müssen Zu- und Abfluss der oft in Kaskaden hintereinander angeordneten Talsperren fein untereinander abgestimmt werden, was am besten gelingt, wenn sich alle Staustufen in einer Hand befinden. Wir verdanken es EDF, der Compagnie Nationale du Rhône (CNR) und der Société hydroélectrique du Midi (Shem), dass die zum Teil ariden Regionen Provence und Languedoc heute überwiegend grün sind. (Ich habe selbst in den 1970er Jahren meine Diplomarbeit über den wichtigen Alpenfluss Durance erstellt, die von den Hochalpen in die Provence fließt und eine solche Kette großer und kleinerer Stauwerke versorgt, die alle von EDF gemanagt werden.) Dabei ist klar, dass jede Wasseraufstauung gewichtige ökologische Belastungen mit sich bringt, die gegen den möglichen gesellschaftlichen Nutzen der Elektrizitätsproduktion unvoreingenommen abgewogen werden müssen, was in der Vergangenheit leider oft vernachlässigt wurde.

Die boomende Nachkriegswirtschaft fußte in Frankreich bis in die 1960er Jahre überwiegend auf dem Einsatz günstiger Elektrizität aus Wasserkraftwerken, weil größere Kernkraftwerke zunächst nicht zur Verfügung standen. Neben EDF beteiligten sich auch private Investoren am Bau von Wasserkraftwerken. Zum Teil handelt es sich dabei um das Erbe mittelständischer Industrien, die bis zum Aufbau einer halbwegs leistungsfähigen überregionalen Elektrizitätsversorgung direkt mit Wasserkraft betrieben wurden. Insgesamt gibt es zurzeit in Frankreich noch etwa 400 Konzessionen für den Betrieb von Talsperren und Laufwasser-Staustufen. Die Kapazität vieler kleiner und mittlerer Wasserkraftwerke könnte durch den Bau zusätzlicher Turbinen bzw. den Ersatz herkömmlicher durch Kaplan-Turbinen mit überschaubarem Investitionsaufwand erheblich gesteigert werden. Doch verhindert die durch den Erlass der EU-Richtlinie 2014/23/EU entstandene Rechtsunsicherheit solche Investitionen.

Das offiziöse Franceinfo des französischen Staatssenders Radio France schildert in einer Reportage an konkreten Beispielen, wie die EU-Regulierung zum Investitionshemmnis wird: So schildert Yves Dubief, ein Textilienfabrikant, der in den Vogesen am Zusammenfluss von Mosel und Vologne das 1947 von seinem Großvater erbaute Wasserkraftwerk betreibt, dass er dieses mit einer Investitionen von nur 700.000 Euro ertüchtigen könnte. Doch seine Konzession läuft, wie die der meisten nach dem Krieg für 75 Jahre erteilten Konzessionen zum Ende dieses Jahres aus. Da er nicht weiß, wer nach deren Neuausschreibung den Zuschlag bekommen wird, ist die Investition für ihn sinnlos.

Auch der riesige Staatskonzern EDF befindet sich in einer vergleichbaren Lage. Zum Beispiel beim großen Wasserkraftwerk Montézic im südfranzösischen Département Aveyron. Dieses Kraftwerk, dessen Kapazität mit einem Kernreaktor vergleichbar ist, arbeitet zurzeit mit vier Turbinen. EDF möchte hier für eine halbe Milliarde Euro zwei zusätzliche Turbinen installieren. Das würde sieben Jahre in Anspruch nehmen. Es wäre aber gut möglich, dass bei der von der Brüsseler Kommission geforderten Neuausschreibung der Kraftwerks-Konzession ein Wettbewerber das Rennen macht. Caroline Togna, die zuständige EDF-Direktorin, sieht deshalb keine andere Möglichkeit, als den Ausgang der begonnenen Kraftprobe zwischen dem französischen Staat und der Brüsseler Kommission abzuwarten.

Anders als in Frankreich üblich, steht die französische Nationalversammlung beim Rechtsstreit zwischen Paris und Brüssel einstimmig hinter der Regierung. Gerade im Hinblick auf de befriedigende Lösung einer Vielzahl sozialökonomischer Aufgaben durch EDF und andere Projekte des Wassermanagements sehen die Volksvertreter keinen Sinn in der von Brüssel geforderten Privatisierung mit Konkurrenz zwischen verschiedenen Betreibern. Die Wasserkraft gilt den einen wegen ihrer Stetigkeit und Speicherfähigkeit als beinahe ideale „erneuerbare“ Energie, mit deren Hilfe sie dem (illusorischen) Ziel 100 Prozent „Erneuerbare“ näher zu kommen glauben. Andere hingegen sehen in der Wasserkraft eine interessante Ergänzung der Kernenergie. Anders als die noch in den Kinderschuhen steckenden Small Modular Reactors (SMR) sind auch große Kernkraftwerke nur schwer privatisierbar. Es ist schwierig bis unmöglich, die heraufziehende europäische Energiekrise nach einem einzigen marktwirtschaftlichen Schema anzugehen.

Kurz: Die von der Brüsseler Kommission beschlossene und vom Europa-Parlament abgesegnete Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen steht der Ansteuerung der proklamierten Ziele des „Green Deal“ zumindest in Frankreich entgegen. Die Ansteuerung hehrer grüner Ziele bedarf keiner bürokratischer Zentralisierung, sondern verlangt nach nationaler Selbstbestimmung.

 




CO2 und Temperatur: Unbotmäßige Kurven

Das Narrativ über den eindeutigen Zusammenhang zwischen CO2-Konzentration und Erdtemperatur gilt als verbindliche Doktrin unserer Zeit und politisch gesetzt. Doch auch solche apodiktischen Behauptungen haben vielfach eine Halbwertszeit. Hier eine frische Brise Aufklärung in der Sache.

Von Uta Böttcher

Ist es so, dass wir einfach den CO₂-Gehalt in der Atmosphäre reduzieren müssen, und schon geht die globale Temperatur zurück? Seit dem 6. Mai 2025 ist die neue Regierung aus CDU/CSU und SPD im Amt. Die öffentlich-rechtlichen Medien bejubeln einen großen Politikwechsel, der in Wirklichkeit nicht stattfindet: Um den Ausstoß an CO₂ möglichst auf Null herunterzufahren und damit den „menschengemachten Klimawandel“ aufzuhalten, darf das Habeck’sche Heizungsgesetz weiterhin ungebremst sein Unwesen treiben. Die CO₂-Bepreisung und die Energiewende werden gnadenlos weiterverfolgt, und exorbitante Strompreise verursachen den Ruin der Wirtschaft (siehe auch hier und hier). Aber: Ist CO₂ der einzige Faktor, der über die globale Temperatur entscheidet?

Uns werden in den gängigen wissenschaftlichen Publikationen Grafiken gezeigt, die suggerieren, dass CO₂ der einzige Faktor ist, der die globale mittlere Temperatur steuert, beispielsweise auf dem Hamburger Bildungsserver (HBS). Betrachtet man diese Kurve der CO₂-Konzentration über die letzten 66 Millionen Jahre (Känozoikum) zusammen mit dem dort gezeigten Verlauf der mittleren globalen Temperatur in dieser Zeit, so scheinen diese beiden Kurven tatsächlich absolut synchron zu verlaufen. Es wird suggeriert: Wenn die CO₂-Konzentration ansteigt, erhöht sich parallel auch die mittlere globale Temperatur, als wäre CO₂ der einzige Faktor, der über die globale mittlere Temperatur entscheidet. Und entsprechend dieser simplen Formel werden derzeit die wichtigsten politischen Entscheidungen getroffen.

Ein Bild, das Text, Reihe, Diagramm, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Doch: Woher kommen die Daten für den beim HBS gezeigten Temperatur- und CO₂-Verlauf? Und sind es Daten oder nur eine Simulation?

Die am meisten publizierte CO2-Kurve ist simuliert

Die Temperaturdaten sind zuverlässige Messwerte. Sie beruhen auf einer wissenschaftlichen Publikation von J. Hansen et al. aus dem Jahr 2013 (siehe hier). Dort wird eine Temperaturverlaufskurve der Erdneuzeit, bestehend aus echten Messwerten (Proxydaten), gezeigt. Gewonnen wurden sie aus den Schalen von Mikrofossilien in Meeressedimenten (Foraminiferen) aus Bohrkernen des Ozeanbodens. Richtige Messdaten zu bekommen, macht sehr viel mehr Mühe, als mit verschiedenen Parametern in Computersimulationen zu experimentieren.

Um Rückschlüsse auf die in der Vergangenheit herrschenden globalen Temperaturen zu ziehen, wird das Delta18O-Verfahren eingesetzt. Das Verhältnis der Sauerstoffisotope 16O zu 18O ermöglicht die Berechnung der Umgebungstemperaturen, die während der Entstehung des natürlichen Archivs geherrscht haben, denn: Eine einmal verfestigte Kalkschicht fixiert die Umweltbedingungen zu ihrer Entstehungszeit. Zusätzlich wird das geologische Alter der Probe ermittelt, um den Temperaturwert zeitlich einordnen zu können. Diese realen, im Gelände gemessenen erdgeschichtlichen Daten sind zuverlässig.

Während also diese Temperaturverlaufskurve für die vergangenen 66 Millionen Jahre mit einiger Wahrscheinlichkeit die Wirklichkeit widerspiegelt, wurde die Kurve für die CO₂-Konzentration mit einem Klimamodell errechnet. Und zwar mit der Vorgabe, dass die globale Temperatur sehr dominant vom CO₂-Gehalt in der Atmosphäre gesteuert wird. Deswegen folgt diese errechnete CO₂-Kurve auch bis in kleinste Details der Temperatur. Das wäre bei echten Messwerten völlig undenkbar. Jedem, der schon einmal im Labor Messdaten zu zwei völlig verschiedenen Parametern erarbeitet hat, fällt das sofort auf.

Wie die CO2-Kurve aussieht, wenn sie mit echten Messwerten ermittelt wird

Aber wie relevant war das CO₂ tatsächlich für das Klima, betrachtet über die Zeit, seit es Leben auf der Erde gibt?

Die neueste Rekonstruktion des CO₂-Gehaltes (und der Temperaturen) im Phanerozoikum, also seit sich das Leben zu entwickeln begann, zeigt ein völlig anderes Bild. Für diese Rekonstruktion wurden echte (!) Messwerte (natürliche CO₂-Archive und Temperaturproxys), mit einer Klimamodellierung kombiniert. Es handelt sich in dieser Form um einen neuen Ansatz, um eine bessere Aussage über die tatsächlichen Vorgänge in der Vergangenheit treffen zu können als bisher.

Die rote Temperaturkurve war im Artikel „Hurra, wir retten die Eiszeit!“ das Hauptthema. Zu dieser wurde nun die blaue Kurve des CO₂-Gehaltes während der letzten 460 Millionen Jahre hinzugefügt (siehe Grafik oben); diese blaue Kurve ist halblogarithmisch – also in der vertikalen Achse gestaucht – damit sie besser darstellbar ist. Wichtig ist: Schwingen diese Kurven parallel, also geht die mittlere Temperatur nach oben, wenn der CO₂-Gehalt steigt?

Sofort wird sichtbar, dass im gesamten Mesozoikum (252 bis 66 Millionen Jahre vor heute) der CO₂-Gehalt unaufgeregt um Werte zwischen 0,06 Prozent und 0,10 Prozent pendelt, während die Temperaturkurve wild nach oben und unten ausschlägt. Besonders gravierende Ausreißer und Zeiten, wo sogar das CO₂ nach oben ging, die Temperatur jedoch nach unten – sind mit einem roten Dreieck markiert. Auch in der Erdneuzeit (66 Millionen Jahre bis heute) gibt es solche Ereignisse, wie auch im Erdaltertum (538 bis 252 Millionen Jahre vor heute).

Das bedeutet, dass es völlig andere Faktoren außer dem CO₂-Gehalt waren – und bis heute sind – die Veränderungen der globalen Temperatur bewirken. Wir kennen sie nur bisher nicht. Und da derzeit ja angeblich weit mehr als 90 Prozent der Wissenschaftler überzeugt sind, dass ausschließlich der Mensch mit dem von ihm verursachten CO₂-Ausstoß das Klima verändert, werden wir es womöglich niemals herausfinden.

Was hier direkt sichtbar ist, errechnet sich in der statistischen Auswertung ganz folgerichtig als negativer Zusammenhang zwischen mittlerer globaler Temperatur und CO₂-Gehalt der Atmosphäre (r = -0,37, P = 0,18). Das bedeutet, dass der Zusammenhang eher umgekehrt zu sein scheint: Geht der CO₂-Gehalt hoch, geht die Temperatur runter. Selbst während der extremen Treibhauswärme in der mittleren Kreidezeit lagen die CO₂-Werte nur bei 0,0775 Prozent oder 775 ppm.

Wir haben die Zusammenhänge nicht wirklich verstanden

Um irgendwie das CO₂-Thema doch noch zu retten, wird im hier zitierten Forschungsartikel argumentiert, dass es für diesen CO₂-Wert „zu warm“ war. Wem war es denn zu warm? Den Dinosauriern wohl kaum und an den Menschen war in der Kreidezeit noch nicht einmal zu denken. Unter diesen Bedingungen war – durch den fast doppelten CO₂-Gehalt im Vergleich zu heute – das Pflanzenwachstum hervorragend, und die Saurier hatten eine reich gedeckte Tafel.

Für die Erdneuzeit schwingen die Temperaturkurve und die CO₂-Kurve schon eher im Gleichklang – die statistische Auswertung weist auf einen Zusammenhang der beiden Werte hin (r = 0,97, P < 0,01). Wenn also CO₂ anstieg, erhöhte sich auch die Temperatur, und die Wahrscheinlichkeit, dass dieser Zusammenhang zufällig ist, ist kleiner als 1 Prozent. Im Erdaltertum ist der Zusammenhang wiederum nicht so eindeutig, weist aber auf einen immer noch starken statistischen Zusammenhang hin (r = 0,73, P < 0,01). Bei dieser statistischen Auswertung wird allerdings lediglich der Zusammenhang zweier Werte festgestellt, nicht jedoch die Ursache-Wirkung-Beziehung!

Im Verlauf der Erdgeschichte gab es also sehr warme Zeitabschnitte, z.B. in der Kreidezeit vor ca. 85 Millionen Jahren, wo kein Zusammenhang mit einer hohen CO₂-Konzentration festzustellen ist. Wir haben offenbar die Zusammenhänge noch nicht wirklich verstanden.

Dennoch wird alarmistisch behauptet, dass eine Erhöhung der CO₂-Konzentration zu einem rasanten Anstieg der globalen Durchschnittstemperatur führen wird. Und was noch schlimmer ist: Die Menschheit wird in Panik versetzt, und unzählige – wahrscheinlich bestenfalls sinnlose – Maßnahmen werden von der Politik eingeleitet, um das CO₂ zu reduzieren. Und um dadurch das Klima zu „kontrollieren“. Aber laut Portalen wie „Klimafakten“ ist jede wissenschaftliche Diskussion ja sowieso überflüssig, denn: „Fakt ist: Auch wenn es bei anderen Klimawandeln in der Erdgeschichte anders gewesen sein mag, CO₂ ist die Hauptursache des gegenwärtigen Klimawandels“.

*****

Anhang für Interessierte: Wie werden CO2- und Temperaturproxys gemessen?

Lebermoos, Ginkgo-Blätter als natürliche Archive für den CO₂-Gehalt

Um den Kohlendioxidgehalt in der Atmosphäre früherer erdgeschichtlicher Epochen zu bestimmen, werden die Blätter von Lebermoosen und Ginkgobäumen analysiert, denn diese Art von Moosen existiert seit 420 Millionen Jahren, und auch Ginkgo-Bäume sind lebende Fossilien, die es seit 200 Millionen Jahren gibt. Die Eigenschaften dieser Blätter sind über einen langen erdgeschichtlichen Zeitraum vergleichbar. Interessant für die CO₂-Messung ist die Dichte der Spaltöffnungen (Stomata), die für den Gasaustausch zuständig sind, also Kohlendioxid aufnehmen und Sauerstoff und Wasserdampf abgeben. Die Dichte dieser Öffnungen ist abhängig vom CO₂-Gehalt der Umgebungsluft: Je mehr Kohlendioxid verfügbar ist, umso weniger Stomata benötigt die Pflanze für ihre Photosynthese.

Verhältnis der stabilen Kohlenstoffisotope 13C zu 12C in Alkenonen als CO2-Proxy

Eine weitere Möglichkeit, den Paläo-CO₂-Gehalt zu bestimmen, ist die Analyse der Zusammensetzung der stabilen Kohlenstoff-Isotope in bestimmten langkettigen organischen Molekülen, den Alkenonen. Diese werden von Mikroalgen produziert und finden sich in Meeressedimenten. Kohlenstoff existiert in zwei stabilen Isotopen: 12C (ca. 98,9 Prozent) und 13C (ca. 1,1 Prozent). Algen bevorzugen bei der Photosynthese das leichtere Isotop (12C) und bauen dies bevorzugt in ihre organische Substanz ein. Bei hohem CO₂-Gehalt nehmen die Algen mehr 12C auf, weil es leichter verfügbar ist, und weniger des schwereren Isotops. In Zeiten niedriger atmosphärischer CO₂-Konzentrationen sind die Pflanzen gezwungen, mehr 13C aufzunehmen. Daher werden die δ13C-Alkenone als Proxy für vergangene CO₂-Konzentrationen in der Atmosphäre genutzt: Je mehr 13C eingebaut ist, umso niedriger war die CO₂-Konzentration.

Analyse von Paläoböden

Der CO₂-Gehalt der Atmosphäre wird auch mit der sogenannten pedogenen Karbonatmethode gemessen. Karbonate entstehen in Böden durch chemische Reaktionen, bei denen CO₂ aus der Atmosphäre durch Wurzelatmung und mikrobielle Aktivität im Boden mit Calcium- oder Magnesiumionen reagiert. Dadurch entstehen im Boden Karbonatminerale (z. B. Calciumcarbonat, CaCO₃), die das CO₂ im Boden fixieren. Die Methode misst, wie viel CO₂ in diesen Karbonaten gespeichert ist, um Rückschlüsse auf den Kohlenstofffluss aus der Umgebung zu ziehen. Um die auf diese Weise in Böden entstehenden Karbonate von denen in Gestein zu unterscheiden, wird wieder die Isotopenanalyse (z.B. δ¹³C) verwendet. Denn die in Böden durch die Tätigkeit von Lebewesen entstandenen Karbonate enthalten im Verhältnis wieder mehr isotopisch leichteres CO₂.

Paläotemperatur messen mit dem δ 18O-Verfahren

Sauerstoff hat zwei stabile Isotope: 16O (leichter, ca. 99,63 Prozent) und 18O (schwerer, ca. 0,1995 Prozent), die für die Messung der Paläotemperatur verwendet werden. Foraminiferen bauen ihre Schalen aus Calciumcarbonat (CaCO₃) auf, indem sie gelösten Sauerstoff aus dem Meerwasser verwenden. Bei niedrigen Wassertemperaturen bauen sie im Verhältnis mehr des schwereren 18O ein, bei höheren Temperaturen weniger. Die Foraminiferen-Schalen werden aus Meeressedimentkernen gewonnen, gereinigt, und die Isotope 16O und 18O mit einem Massenspektrometer getrennt, um auf diese Weise ihre Menge zu bestimmen.

δ18O bzw. Delta-O-18 ist ein Maß für das Verhältnis der stabilen SauerstoffIsotope 18O und 16O. Ein niedrigerer δ 18O-Wert weist auf wärmere Temperaturen hin. Das δ¹⁸O-Verfahren nutzt also die temperaturabhängige Fraktionierung von Sauerstoffisotopen im Calciumcarbonat, um vergangene Temperaturen zu rekonstruieren. Der gemessene δ¹⁸O-Wert der Schalen wird in Kombination mit Schätzungen des Meerwasser-δ¹⁸O verwendet, um Temperaturen abzuleiten. Das δ¹⁸O des Meerwassers zum Zeitpunkt der Schalenbildung wird mit zusätzlichen Proxy-Daten bestimmt, z.B. Mg/Ca-Verhältnisse in Foraminiferen.

Uta Böttcher ist Diplom-Geologin mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie

Der Artikel erschien zuerst bei ACHGUT hier

 




Klimaschutz gefährdet die Umwelt und die Bevölkerung – Teil 1: Menschenopfer für die Windkraft

von Dr. Klaus-Dieter Humpich

Ist bei Unfällen an Land gleich der Lokalreporter zur Stelle, ist der Windmüller auf Hoher See geschützt vor neugierigen Blicken. Ein weiterer Grund für die Förderung von Offshore-Windkraftanlagen. Nicht nur die Natur wird geschädigt, sondern auch die zahlreichen Arbeiter. Seefahrt und Hochseefischerei waren schon immer gefährliche Arbeitsplätze. Arbeitnehmer waren dort schon immer mit „einer speziellen Risikoprüfung konfrontiert“, wenn sie eine Lebens- oder Unfallversicherung abschließen wollten. Oft waren die Prämien kaum zu stemmen.

Offshore-Windarbeit ist körperlich anstrengend, wetterabhängig und oft gefährlich. Das ist die harte Wahrheit hinter dem Green Deal. Wenn die Investoren und Betreiber nicht bei jedem Fundament, jedem Unterwasserkabel, jeder Montage und jedem Personentransport zur See eine „Safety First“ Mentalität mitbringen, wird der menschliche Preis sehr hoch werden. Offshore-Wind ist ein noch junger Industriezweig mit zahlreichen neuen Techniken. Vielleicht ist das der Grund (hoffentlich) warum die Unfallstatistiken 3 bis 4 mal so hoch sind, wie in verwandten Branchen (Öl- und Gasförderung auf hoher See etc.). Die meisten meldepflichtigen Unfälle passieren bei:

  • Schwerlast und Kranarbeiten z.B. für die Fundamente und die Gondeln.
  • Arbeiten in großer Höhe in beengten Türmen und Gondeln. Hier spielt im Ernstfall die Zeit für das Abbergen Verletzter aus Höhen von 100 m und mehr eine entscheidende Rolle.
  • Personaltransfer von Schiffen auf die festen Windmühlen bei rauher See.
  • Elektrische Fehler und Gefahren in den beengten Räumen während der Inbetriebnahme und laufender Wartung.

Wenn es um die Sicherheit von Offshore-Windanlagen geht, ist der Datenpool noch klein, aber das Signal leider schon klar. Da die Offshore-Windkraft wächst, muss jede Lektion aus frühen Vorfällen in strengere Standards, intelligentere Schulungen und sicherere Arbeitsplätze umgesetzt werden. Dies führt durchweg zu steigenden Kosten. Der Wind schickt zwar keine Rechnung, aber die notwendige Wartung und Reparaturen nehmen mit steigender Betriebsdauer leider zu. Je weiter der Windpark von der Küste entfernt ist, um so höher auch das Risiko für die Arbeiter. Im Ernstfall ist das Krankenhaus eben nicht um die Ecke. Die „goldene Stunde“ bis zur Notaufnahme ist kaum einzuhalten. Ein „Mann über Bord Manöver“ hat auf hoher See auch viel geringere Erfolgschancen. Wie man vom Transfer zu Bohrinseln mit Hubschraubern weiß, sind Abstürze zwar selten, kommen aber mit steigender Anzahl der Flüge leider vor. Allerdings sind die Landeplätze auf einer Bohrinsel sicherer als auf der Gondel einer Windmühle.

Das Herumklettern auf Windmühlen ist nichts für „unsportliche“ Menschen. Im Gegenteil ist schon aus Sicherheitsgründen ein „sportlicher“ Körperbau erforderlich. Hier entsteht das nächste „Dachdeckerproblem“ in einer alternden Gesellschaft. Wo sollen eigentlich die Wartungsmonteure in 20 oder 30 Jahren herkommen? Nur jung und sportlich reicht auch nicht. Es sind auch Fachkenntnisse nötig – sprich, eine langjährige Ausbildung. Selbst wenn alle Anforderungen erfüllt sind, bleibt die Frage der Konkurrenzfähigkeit gegenüber Jobs an Land. Es bleiben die besonderen Belastungen durch den Zugang, die Exposition gegenüber Lärm, Vibrationen, Hitze, Kälte und Regen und – nicht zuletzt – die Seekrankheit. Das wird man zukünftig wohl nur über höhere Löhne ausgleichen können.

Der Druck, den Zugang zu Offshore-Windparks zu beschleunigen und gleichzeitig die Wartungskosten zu senken, wird das Risiko von Besatzungstransfers unter den nicht beeinflußbaren Randbedingungen erhöhen. Ein wichtiger Aspekt für sichere und erfolgreiche Transfers ist die Qualität der Wettervorhersage für den Einsatztag und die Entscheidung, ob eine Wartungsaufgabe durchgeführt werden sollte. Mit dem Alter des Windparks steigt zwar die Erfahrung, aber auch der Verschleiß nimmt unter den rauhen Bedingungen der Nordsee zu. Besonders die salzhaltige Seeluft fordert ihren Tribut.

Ein bisher noch nicht zufriedenstellend verstandenes Phänomen ist die unterschiedliche Ereignishäufigkeit TRIR (Total Recordable Injury Rate) von Arbeitsunfällen. Der TRIR für Betriebsstätten ist im Durchschnitt 3 bis 4 Mal so hoch wie für Baustellen. Ein Gedanke ist die bessere Ausbildung und Sorgfalt bei den Baufirmen. Untersuchungen haben z. B. gezeigt, daß Leiharbeiter aufgrund von Bedenken hinsichtlich der Arbeitsplatzsicherheit weniger häufig Verletzungen melden. Bei den Baufirmen handelt es sich um relativ wenige Unternehmen mit teilweise langjährigen Erfahrungen im Offshore-Bereich. Bei der eigentlichen Installation und Wartung werden die Unternehmer zahlreicher und breiter (z. B. lokale Handwerker).

Ein gutes und leicht zu erfassendes Maß für die Gefährdung sind die Technikertransfers zu den Windmühlen. Jeder Besuch erfordert einen Transfer mit Schiff oder Hubschrauber, den Übergang vom beweglichen Transportmittel auf die feststehende Mühle, sowie die anschließenden Arbeiten. Heute sind Schiffe mit hydraulischen Brücken üblich, die die Wellenbewegungen ausgleichen sollen. Nur sind Wellen Natur. Abrupte Bewegungen – auch bei relativ geringem Seegang – führen immer wieder zu Stürzen, oft verbunden mit Knochenbrüchen. Um welche Größenordnung es sich handelt, wird deutlich, wenn man bisher von durchschnittlich 6,5 Technikertransfers pro Windmühle jährlich ausging. Die Transfers werden voraussichtlich von rund 180.000 pro Jahr im Jahr 2022 auf zwischen 300.000 und 350.000 pro Jahr im Jahr 2030 nur in GB steigen.

Hier wächst, buchstäblich außerhalb der Öffentlichkeit, ein neuer Industriezweig mit hohem Unfallrisiko heran. Auch Unfälle mit mehreren Toten finden bestenfalls regional Beachtung. Man kennt dies schon aus der Seefahrt. Täglich gehen weltweit Schiffe unter, aber nur die spektakulären Ereignisse schaffen es in die Abendnachrichten. Der Wind schickt sehr wohl eine Rechnung. Spätestens, wenn die Beiträge zu den Berufsgenossenschaften steigen, wird uns das bewußt gemacht.

Der Beitrag erschien zuerst auf dem Blog des Autor hier

 




CO2 und Wasserdampf, wie bei Lanz am 10.7.25 die Wissenschaft und damit die Interessen Deutschland auf den Kopf gestellt werden.

Von Michael Limburg

Es gab ein paar Tage in Deutschland, bei denen das Thermometer über 30 °C anstieg. In mancher Stadt (Urban Heat Island Effekt) sogar bis auf 39 °C. Für die Öffentlich-Rechtlichen Grund genug, mal wieder die Klimaleier zu spielen. Und das, obwohl für Juli haben, ein Sommermonat, wo schon des Öfteren Temperaturen über 30 ° gemessen werden manchmal auch deutlich höher, und sich fast alle Menschen, die in die Ferien fahren, und es sogar im Süden versuchen, und dort hoffen, dass es dort noch wärmer würde. Und diesen wenigen warmen Tage wurden benutzt, um hierzulande die Klimapanik anzuheizen. Wer sich das antun möchte, kann das hier tun, und ein sehr positive Kritik der Lanzschen Sendung finden Sie hier.

Diesmal hatte Lanz dazu geladen, den Tübinger Oberbürgermeister – ehemals Grüner- Boris Palmer, die Aktivistin Maja Göpel als Nachhaltigkeitsexpertin verkauft, der Klimaforscher Jochem Marotzke und der Welt Journalist Axel Bojanowski Geologe. Und wenn man dieser Sendung folgt, dann ist es mal wieder fast zu spät, jedoch meinen Marotzke und Bojanowski wir (d.h. vielleicht sie meinen Deutschland? Oder vielleicht Europa? Oder vielleicht die Welt?) hätten wohl noch genug Zeit, aber auf jeden Fall müssten die Emissionen massiv gesenkt werden. (Marotzke, Bojanowski, und die anderen auch).

Und Boris Palmer, seit 2006 Oberbürgermeister von Tübingen, meinte, man könne den „Klimaschutz“ nur mit der Wirtschaft hinbekommen, nicht gegen sie. Und führte als Beispiel dann ein Windrad an, dass mitten im Tübingen stünde, und – so sein stolzer Satz – der Stadtkasse jährlich 250.000 € einbrächten. Kein Wort verlor er darüber, wer denn diese 250.000 € für einen unbrauchbaren Flatterstrom bezahlen müsste. Nun wir können es hier nachholen, es sind wir, die Bürger!

Zum „Klimaschutz“ à la Marotzke und Bojanowski

Es ist eigentlich und immer wieder unglaublich, mit welch merkwürdiger Selbstverständlichkeit auch ein Mann wie Jochem Marotzke, als bedeutender Klimaforscher vorgestellt, davon ausgeht, dass wir

a) die Emissionen senken müssten, auf Netto Null versteht sich,

b, dass CO2 eine Verweilzeit von über 1000 Jahren hätte, und

c) dass auch Deutschland damit beginnen müsse.

Völlig ungeachtet der Tatsachen, und die sind alle messbar, dass es nicht die Emission ist, schon gar nicht das anthropogene CO2,  mit 1%-bis max. 5% max. der Gesamtemission, sondern die gesamte Konzentration sein soll, die das Klima erwärmt. Und die steigt ungehindert nach oben, der Lockdown 2020 (siehe weiter unten) zeigte das, ebenso zeigten die Kernwaffenexplosion der 60 Jahre des vorigen Jahrhunderts eindeutig, dass CO2 eine Verweilzeit von max. 40-50 Jahren, vermutlich deutlich weniger, hat, und Deutschland mit inzwischen nur 1,5 % an der anthropogenen CO2 Emission teilhat, und so fort.

Vor allen Dingen müssen auch Marotzke und auch der Bojanowsi wissen, dass Wasserdampf mit rd. 10.000-15.000 ppm in der Atmosphäre vorhanden, also 25 bis 35 x mehr als CO2 ist, zudem noch sehr viel breitere Banden hat, die auf Infrarot reagieren, und damit ein deutlich stärkeres Treibhausgas ist, als CO2. Man nimmt ihn nur deswegen nicht aufs Korn, weil, wie auch Rahmstorf und Schellnhuber und viele andere schreiben, wir es nicht beeinflussen können. [1].

Und das ist richtig.

Man nimmt also den Schwanz des Hundes, zupft dort ein paar Haare aus, wedelt damit, und glaubt dann, auch Marotzke und Bojanowski, dass man  mit dem Hund wedeln kann.

So dumm kann eigentlich niemand sein. Aber dumm sind sie ja wirklich nicht. Doch was ist es dann?

Ein Bild, das Text, Diagramm, Reihe enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild 1 Spektrale Empfindlichkeit von Wasserdampf auf jeweils 100 % Absorption bezogen

Man kann also feststellen, dass die Klimawirksamkeit des Wasserdampfes um ein Mehrfaches größer ist als beim CO2.

Doch beim CO2, wie schaut es da aus? Schauen wir mal weiter nach.

Die CO2 Emissionen

Lt. Pariser Klimaübereinkunft sollen die CO2 (äquivalent) Emissionen auf netto Null gesenkt werden. Bis 2050 und in Deutschland bis 2045. So lautet die hiesige Staatsdoktrin.

Doch es sind nicht die CO2 (äquivalent) Emissionen, die die Gegenstrahlung, welche wiederum die Erwärmung hervorruft, sondern die CO2 Konzentration.

Und die zeigt unverändert nach oben.

Völlig unabhängig davon, wie die menschliche CO2 Emissionen ist. Das beweist das Großexperiment mit CO2 Minderung durch den Corona induzierten Lockdown, der 2,4 Gt weniger CO2 in die Atmosphäre entließ. 2,4 Gt sind in etwa so viel wie die gesamte EU allein an CO2 erzeugt. Mit den Äquivalentgasen (also Methan, Lachgas etc. sind es ca. 3,00 Gt)

Videos die das zeigen sind

EIKE im Landtag Berlin: Michael Limburg im Klima-Ausschuß am 10.10.2024

EIKE im Landtag Berlin: Michael Limburg im Klima-Ausschuß am 31.08.2023

Bild 2 CO2 anthropogene Emissionen in GT

 

Bild 3 CO2 Gesamt Konzentration in ppm

Und weil das so ist, sich die Konzentration überhaupt nicht um die anthropogene CO2 kümmerte, muss man feststellen, dass das anthropogene CO2 sich deutlich im Unsicherheitsbereich des CO2 Kreislaufes bewegt. Und die hängt stark am Wasserkreislauf(5). Man glaubt zwar, dass es nur zwischen 1,2[2] bis max 5 % der Gesamtemissionen ausmacht. Die Unsicherheit insgesamt liegt aber bei 4 %. Es muss also eher bei 1% bis max 2 % sein, als die 5%,

Ein Bild, das Text, Karte, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild 4: Kohlenstoffkreislauf nach Carbon Cycle Project; Quelle hier

Z.B. hier CO2 und Corona – update“ von Rob de Vos, oder hier „Kohlenstoff-Kreislauf“ von Clyde Spencer um nur die aktuelleren zu nennen.

Ein Bild, das Text enthält. Automatisch generierte Beschreibung

Bild 5: Mengenanteile des Kohlenstoffkreislaufes mit seinen Komponenten und Fehlerangaben. Herausgezogen sind die „anthropogenen“ Mengen.

Insbesondere Clyde Spencer hat sich daher die Fehlerangaben in Bild 4 angesehen und als Tabelle aufgeschrieben (Bild 5). Dabei kommt er zu dem Schluss (Hervorhebung von mir)

Zitat:

„Wie viel Prozent des jährlichen Beitrags von Kohlenstoff in die Atmosphäre ist anthropogen? Es ist, <8,8 (±0,1) / 216 (±2), oder <4,1%. Ein allgemein behaupteter Wert ist etwa 3%. Die größte Unsicherheit besteht darin, wie viel von der Kategorie „Entwaldung“ tatsächlich anthropogen ist. Der Punkt ist, dass wir die Summe mit mindestens einer Größenordnung weniger Genauigkeit kennen als die anthropogene Komponente.“ Zitatende

Aber das ist noch nicht alles. Denn in einer anderen offiziellen Veröffentlichung findet Spencer diese Angaben zu den Quellen und Senken:

Ein Bild, das Screenshot, Plan, Karte, Design enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild 6 Schätzungen alternativer Kohlenstoff-Flüsse. Quelle University of Exeter (hier)

Und er kommentiert dieses Faktum trocken so:

Zitat:

Diese Grafik, (Abb. 6), ist noch problematischer. Sie zeigt oben einen jährlichen Anstieg von 240 ±10 pg. Eine andere Art der Darstellung ist 240 pg ±4%. Wenn ich die angezeigten Werte in eine Tabelle einfüge, kann ich aber nur 207 ±2 pg ausweisen! Wir sind nun mit einem Problem der Genauigkeit (Übereinstimmung zwischen den Schätzungen) sowie der Präzision (die Anzahl der signifikanten Zahlen) konfrontiert.

Wie ich es oben für Abb. 1 (Hier Bild 6) getan habe, folgt nun eine Tabelle mit den Schätzungen aus Abb. 2 (Hier Bild 5):

Ein Bild, das Text, Screenshot, Schrift enthält. KI-generierte Inhalte können fehlerhaft sein.

Wie dem auch sei, in diesem Fall ist der anthropogene Anteil 9 (±1) / 207 (±2), oder ≈4.%. Nehmen wir an, dass der angegebene Kohlenstofffluss (240 pg) und die damit verbundene Unsicherheit (±10 pg) korrekt sind und ich entweder etwas übersehen habe oder der Künstler, der die Illustration erstellt hat, etwas in der Illustration vergessen hat.  Die Unsicherheit (±10) ist gleich oder größer als der geschätzte gesamte anthropogene Beitrag, 9 ±1 pg.“ Zitatende

Methan sei ein wichtiges Treibhausgas.

In den Videos oben ist auch von der Sprengung der Gaspipeline aus Russland in der Ostsee am 22.9.22 die Rede. Inzwischen wissen wir, die USA waren es. Doch leider ist das ist in diesem Zusammenhang nicht interessant. Es entwichen dort 300 – 500 Mio m3 Methan (2-Tagesverbrauch in D)[3] was einem CO2 Äquivalent von mindestens 7,5 Mio Tonnen entspricht (1% der jährlichen Emission in Deutschland). Quelle UBA.

Wenn Methan also ein so „starkes“ Treibhausgas wäre, müsste sich über den vielen Leckstellen in der Luft über der Ostsee eigentlich eine Art Hitzepilz gebildet haben, ein Luftwärmemeer über der Ostsee. Angeblich wurde das Erdgas in einem Umkreis von mehreren Hundert Metern zunächst kaum verdünnt, breitete sich dann aber pilzförmig in alle Richtungen und nach oben aus und erreichte verdünnt schließlich auch die Atmosphäre über dem Festland. Methan ist in der Erdatmosphäre mit a. 1,8 ppm oder 1800 ppb (part per billion enthalten). Es soll aber eine Klimasensitivität haben, die 84 x kurzzeitig und 25 mal langfristig stärker ist, als das CO2. D.h. wenn kurzzeitig 300-500 Milionen m3 Methan in der Luft sind, müssen sie eine Klimasensitivität besitzen die mindestens 84 x höher ist[4], als die 0,042 Vol % CO2. Und Menge an Methan, die lag dann bei knapp 100 %, später weniger. Würde also die Treibhaustheorie stimmen, dann hätte die Luft über der Ostsee zu einem Wärmeluftmeer werden müssen!!!

Doch es wurde nicht wärmer, sondern leicht kälter.

Selten wurden so rudimentäre Unwahrheiten in der Klimawissenschaften so schnell widerlegt wie diese.

  1. Seite 44 Kindle Ausgabe des Buches Klimawandel
  2. Siehe dazu das Schreiben von Frau Dr.Claudia Golz, Umweltbundesamt, am 10.08.05
  3. Näheres dazu hier https://eike-klima-energie.eu/2024/09/25/vor-2-jahren-ungewollter-tagelanger-grossversuch-zum-treibhauseffekt-im-ostsee-und-anliegerraum-keinerlei-treibhauserwaermung-feststellbar/
  4. Seine kurzfristige Klimasensitivität ist etwa 84-87 mal so hoch wie die von CO2 über einen Zeitraum von 20 Jahren und etwa 28-34 mal so hoch über einen Zeitraum von 100 Jahren.
  5. Geologe Prof. Dr. Jan Veizer und der Israelische Astrophysiker Prof. Dr. Nir J. Shaviv (Hebrew University, Jerusalem) Himmlischer Treibhauseffekt
    Kosmische Strahlung bestimmt unser Klima
    RUB-Geologie: Treibhauseffekt durch kosmische Strahlung Shaviv, Nir J.; Veizer, Jan: Celestial Driver of Phanerozoic Climate? In: GSA Today, Vol. 13, No. 7, 1. Juli 2003, S. 4-10
  6. Celestial driver of Phanerozoic climate?

    Nir J. Shaviv, Racah Institute of Physics, Hebrew University of Jerusalem, Jerusalem,

    91904, Israel

    Ján Veizer, Institut für Geologie, Mineralogie und Geophysik, Ruhr Universität, 44780

    Bochum, Germany, and Ottawa-Carleton Geoscience Centre, University of Ottawa,

    Ottawa, Ontario K1N 6N5, Canada