Früher war es schlimmes Wetter, heute macht das Gleiche mit Sicherheit der Klima­wandel

Wir erleben den Klimawandel …

Mit dieser Meldung setzte die deutsche Wahrheitsagentur dpa wieder ein schlimmes Ereignis des allgegenwärtigen Klimawandels in Szene, pflichtgemäß verbreitet durch unsere Medien wie msn und BERLINER KURIER [3] (sowie vielen anderen Zeitungen).
Dabei geht es um ein Starkregenereignis mit anschließenden Überschwemmungen am 24. Mai in Bad Elster im sächsischen Vogtland, welches von einem berühmten – zumindest wenn man seine Medienpräsenz betrachtet – Meteorologen kommentiert wurde.
msn wetter, Berliner Kurier: [3] Klimawandel-Schock: Rekord-Hitze und heftige Unwetter
… Südlich von Brandenburg haben die Menschen im sächsischen Vogtland … eine wahre Sintflut erlebt: Schier unglaubliche 152 Liter Regen pro Quadratmeter innerhalb von nur zwölf Stunden fielen beispielsweise in Bald Elster, berichtet Diplom-Meteorologe Dominik Jung (wetter.net). Das sind Mengen, die zum einen an die katastrophalen Regenfluten vom vergangenen Sommer in Berlin erinnern – dies war allerdings ein örtlich eingegrenztes …
Wir erleben den Klimawandel
Diplom-Meteorologe Dominik Jung sieht …
vor allem aber auch einen klaren Zusammenhang mit dem weltweiten Klimawandel: „In den vergangenen Jahren hat sich die Temperatur vor allen Dingen global erhöht. Warme Luft kann mehr Feuchtigkeit aufnehmen als kühle Luft, ergo kann es auch mehr abregnen und zukünftig zu heftigeren Starkniederschlägen kommen. Genau das erleben wir in diesen Tagen wieder sehr eindrucksvoll.“

Starkregenereignisse taugen nicht als Klimawandelbeleg

Wer bisher die vielen Ausarbeitungen des Autors zu Starkregen in Deutschland verfolgt (wenigstens überflogen) hat, weiß, dass sich anhand von Unwetter und Starkregen in Deutschland kein Einfluss eines Klimawandels belegen lässt. Vor allem gibt es im Sommer keinen Anstieg durch die „stetig steigenden Temperaturen“, wie es überall berichtet (und simuliert) wird. Es zeigt sich bei jeder Analyse nur immer wieder die unglaubliche Variabilität unseres „schlechten Wetters“ und dass es zu den „natürlichen“ (kälteren), vorindustriellen Zeiten noch schlimmer war.
Das hat das Umweltbundesamt ermittelt:
Umweltbundesamt: [8] Monitoringbericht 2015
… Hinsichtlich der Anzahl der Tage mit einer Niederschlagsmenge von mehr als 20 mm im Sommer sind hingegen – in guter Übereinstimmung mit der Entwicklung der mittleren Niederschlagsmengen zu dieser Jahreszeit – über eine auch nur regional und sehr schwach ausgeprägte dekadische Variabilität hinaus bislang keine Änderungen auszumachen …
Und sogar der
IPCC gibt es zu und teilt dazu mit:
IPCC 2013, AR5, WGI, Technical Summery, Seite 112: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”
Übersetzung: “Es besteht weiterhin ein Mangel an Beweisen und deshalb ein geringes Vertrauen in Bezug auf Trend-Anzeichen in Bezug auf Größe und / oder Häufigkeit von Überschwemmungen auf globaler Ebene der Instrumenten-Aufzeichnungen.“
Hagel und Gewitter
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”
Übersetzung: „Zusammenfassend gibt es [nur] ein geringes Vertrauen in beobachtete Trends bei den Unwetter-Erscheinungen wie Hagel und Gewitter wegen historischen Daten-Inhomogenitäten und Unzulänglichkeiten bei der Systemüberwachung.“
IPCC Zusammenfassung
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“
Ausgewiesene „Fachpersonen“ stört das allerdings nicht. Der Klimawandel muss in Deutschland „angekommen“ sein. Und da es sich mit Messdaten nicht belegen lässt, müssen Zuweisungen von „Klimaexperten“ einfach reichen. Wer als „Experte“ auf öffentliche Gelder oder Medienpräsenz angewiesen ist [4], dem gelingt es problemlos, jedes Unwetter trotz fehlender Vergleichsdaten dem sich wandelnden Klima zuzuschreiben.
EIKE 24.01.2017: [5] Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
In Deutschland bleibt das dann folgenlos. Denn niemand an wichtigen, gar exponierten Stellen unseres Staates oder einer Kommune würde es heute noch wagen, an solchen Aussagen (öffentlich) zu zweifeln, oder nach Belegen zu fragen.
EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn

Der Starkregen am 25. Mai bei Bad Elster war ein Extremereignis

Nun war das Ereignis in Bad Elster unbestritten außergewöhnlich. Es ist also nicht uninteressant, nachzuspüren, ob sich darin nicht doch der Klimawandel zeigen könnte.
Das Bild des Tage-Niederschlagsverlaufs von Bad Elster beeindruckt (Bild 1). Seit 1951 bleiben die Maimalpegel in etwa gleich und seit ca. 1971 fallen die Tages-Maximalpegel sogar leicht. Und von einem Tag zum anderen – ohne die geringste Vorwarnung – gibt es am 24.Mai 2018 ein Niederschlags-Tagesextrem, wie noch nie in der bisherigen Aufzeichnungsgeschichte. Für den Meteorologen Herrn Jung, ein Zeichen, dass der Klimawandel zugeschlagen hat.

Bild 1 Bad Elster (DWD-Station 1207), Tagesniederschlag seit 1948. Grafik vom Autor aus den DWD-Daten erstellt


Man möchte es fast glauben – auch wenn die Verlaufsstatistik vollkommen dagegen spricht. Doch die Informationen vieler „Klimaexperten“ verkündeten den Klimawandel-Beleg durch zunehmenden Starkregen bereits vor diesem Tag. Und bis zu diesem einen Tag gab der Verlauf nicht entfernt dazu Anlass. Auch wäre die Frage zu klären, wer aus diesem Verlauf ein erhöhtes Wiederauftreten eines solchen Extremniederschlages vorhersagen könnte. Die Statistik könnte es nicht und die Simulationen ach nicht.
Besser kann man es an der Auswertung der Tage mit Starkregen im Folgebild erkennen. Es zeigt sich über die gesamte Aufzeichnungszeit keine Zunahme, nur die für Starkregenereignisse ganz typische, hohe Variabilität.

Bild 2 Bad Elster (DWD-Station 1207), Starkregentage (>30 mm) seit 1948. Ereignistage (Datum) und gleitender Jahreswert der Anzahl. Grafik vom Autor aus den DWD-Daten erstellt

Was war der Grund dafür? Zufällig stand unter der Wassersäule eine Messstation!

Googelt man zum Thema und Vogtland, wird schnell ersichtlich, dass Extremniederschlag und Überschwemmungen dort über die Jahrhunderte (wie im bayerischen Pedant Simbach) ein „tägliches Geschäft“ sind. Denn Expertisen, Studien und Maßnahmenpakete zu historischen und aktuellen Hochwassern und seinen Gefahren sprudeln von dieser Gegend aus google nur so heraus.
Unter anderem eine Karte, welche die maximierten Gebietsniederschläge (MGN) dazu zeigt [6]. Es wird erkennbar, dass das Vogtland – und der Einzugsbereich der bekannt „überschmemmungsreichen“ Flüsse Elster, Mulde und Elbe bis zur Neise – mehrere Zonen mit Extremniederschlag hat. Und die dort möglichen Niederschläge können wirklich extrem werden, wie die MGN-Werte von Bild 3 (aus einer Dissertation) zeigen.

Bild 3 Bad Elster und das betroffene Gebiet im Vogtland im Einzugsbereich der „weissen Elster“. Links eine Karte mit den maximierten Gebietsniederschlägen (MGN) [6]

Wer bei den 150 mm Tagesniederschlag von Bild 1 einen Schreck bekommt: Das Erzgebirge ist nicht zufällig die Quellregion einiger, durch regelmäßige Überschwemmungen gekennzeichneter Flusssysteme. Im Verlauf dieses Mittelgebirges, bis hin zur polnischen Grenze und vor allem im parallel verlaufenden Tschechien sind noch weit höhere Werte „üblich“.
[6] … Die statistisch gesehen extremsten Niederschlagssummen fielen in Sachsen im oberen Einzugsgebiet der Lausitzer Neiße mit Wiederkehrintervallen von >100 Jahren (Station Bertsdorf-Hörnitz: … 145,6 mm/24h) … Auch auf tschechischem Gebiet fielen die extremsten Niederschläge mit Wiederkehrintervallen von >100 Jahren im Einzugsgebiet der Lausitzer Neiße, vor allem im Bereich des Isergebirges im Kreis Liberec (Station Bedrˇichov – Olivetská hora: 289,6 mm/24h; Bedrˇichov – Tomšovka: 287,2 mm/24h)
Allerdings sind solche Extremereignisse lokal eng begrenzt. Während eine Stelle sprichwörtlich mit bis zu 274 mm/24 h absäuft, sind es wenige Kilometer daneben weniger als 5 mm, wie es das Bild 4 von einem solchen Ereignis zeigt.
So war es auch am 25. Mai. Nur eine Station zeigte den hohen Niederschlag (Bild 5), daneben war es wesentlich niedriger und am Unterlauf der Elster fiel nicht einmal mehr Regen, die Werte bei einzelnen Stationen zeigen null Niederschlag.
Es ist damit nicht erklärbar, wie Herr Jung in seiner Interpretation darauf kommt, dass das Starkregenereignis diesmal nicht örtlich eingegrenzt wäre.
Als Konsequenz führt es dazu, dass die Detektion eines solchen Extremereignisses vom Vorhandensein einer Messstation an der lokalen Ereignisstelle abhängt. Und das ist ein wesentlicher Grund, warum ein Vergleich mit historischen Daten nicht möglich ist. Denn es liegen vor dem Jahr 1951 dazu schlichtweg keine mit ausreichender Abdeckung vor. Wobei selbst die heutige Abdeckung zur flächendeckenden Detektion nicht ausreicht, weshalb der DWD beginnt, mit Radar zu messen.
Als Fazit ergibt sich daraus: Ein „Beleg“ des „angekommenen“ Klimawandels durch vermehrte Starkniederschlags-Ereignisse entsteht vorwiegend aufgrund neuerdings flächenabdeckenderer Messmethodik.
Bei Entscheidern kommt diese Kenntnis weiterhin nicht an:
dpa Artikel vom 25. Mai 2018: Die EU-Kommission will „grüne“ Investments stärken und damit den Klimawandel bekämpfen. Entsprechende Gesetzesvorschläge hat sie jetzt vorgestellt …
EU-Kommissar Valdis Dombrovkis: Außerdem nehmen die Kosten von durch die Erderwärmung verstärkten Naturkatastrophen – etwa Überflutungen und Dürren – nach Angaben der Brüsseler Behörde immer mehr zu …

Bild 4 [7] Räumliche Verteilung von Extremniederschlag


Bild 5 Niederschläge im oberen (links) und unteren (rechts) Flussgebiet der Elster im Zeitraum des 24. Mai. Quelle: Sachsen.de Wasser, Wasserwirtschaft Flussgebiete. Abfragezeitpunkt: 25.05., 22h


Man erkennt, dass die direkte, historische Messung solch extremer Starkregenereignisse vor allem davon abhängt, ob sich die eng begrenzte Wassersäule gerade über einer Messstation entlädt. Und dann muss diese für solche Mengen auch noch geeignet sein. Beim Starkregenereignis von Simbach am 01. Juni 2016 fiel als erstes die DWD-Messstation aus. Weshalb in deren Niederschlagsverlauf (und wegen der lokalen Begrenzung des Ereignisses in keiner der umliegenden Stationendas wichtige Ereignis nicht zu finden ist. Das mag früher nicht anders gewesen sen.

Niederschlagsverläufe

Wieder ist es interessant, weitere Niederschlagsverläufe und deren Aussagen zum Klimawandel zu sichten.

Bild 6 Umgebung von Bad Elster (Vogtland) mit Niederschlagsstationen


Bild 7 Hof, Tagesniederschlag 1947 – 25.05.2018. Quelle: DWD Daten Station 2261. Grafik vom Autor erstellt


Bild 8 Hof, 2-Tagesniederschlag 1947 – 25.05.2018. Quelle: DWD Daten Station 2261. Grafik vom Autor erstellt


Bild 9 Plauen, Tagesniederschlag 1882 – 25.05.2018. Quelle: DWD Daten Station 3946. Grafik vom Autor erstellt


Bild 10 Plauen 1882 – 25.05.2018. Datum Starkregentage >30 mm und gleitender Jahreswert der Anzahl. Grafik vom Autor aus den DWD-Daten (Station 1207) erstellt


Bild 11 Selb, Tagesniederschlag 1882 – 25.05.2018. Quelle: DWD Daten Station 4548. Grafik vom Autor erstellt


Bild 12 Selb 1931 – 25.05.2018. Datum Starkregentage >30 mm und gleitender Jahreswert der Anzahl. Grafik vom Autor aus den DWD-Daten (Station 4548) erstellt


Bild 13 Fichtelberg, Tagesniederschlag 1890 – 25.05.2018. Quelle: DWD Daten Station 1358. Grafik vom Autor erstellt


Bild 14 Fichtelberg 1931 – 25.05.2018. Datum Starkregentage >30 mm und gleitender Jahreswert der Anzahl. Grafik vom Autor aus den DWD-Daten (Station 4548) erstellt


Bild 15 Magdeburg, Tagesniederschlag 1881 – 25.05.2018. Quelle: DWD Daten Station 3126. Grafik vom Autor erstellt


Bild 16 Magdeburg 1881 – 25.05.2018. Datum Starkregentage >30 mm und gleitender Jahreswert der Anzahl. Grafik vom Autor aus den DWD-Daten (Station 3126) erstellt


Fazit
Nirgends lässt sich ein die Tagesniederschläge stetig verstärkender Einfluss eines Klimawandels finden. Einzelne – extreme – Tageswerte geschehen immer aus heiterem Himmel und teils mit vielen, vielen Jahrzehnten Abstand, ohne die geringste „Vorwarnung“ im Verlauf. Beim Sichten der (wenigen) Langzeitreihen erkennt man auch, dass alleine mit dem Betrachten der Zeit ab ca. 1950 (ab der dann mehr Messreihen vorliegen) keine Trendaussage möglich ist.
Dafür gibt es einen einfachen Grund: Starkregenereignisse hängen nicht von der globalen Temperatur, und damit auch nicht vom CO2-Eintrag in die Atmosphäre ab (Bild 17).
Womit nur wieder bestätigt wurde, was schon frühere Sichtungen zeigten:
[9] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
[10] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels
[11] EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
Aussagen von „Fachpersonen“, welche in der Lage scheinen, Extremereignisse spontan einem Klimawandel zuordnen zu können, darf man als mindestens unseriös bezeichnen. Anhand der Daten ist es zumindest nicht möglich.
Allerdings bekommt eine seriöse Berichterstattung nicht die gewünschte Medienpräsenz. Dazu muss man schon etwas „powern“:
Stern 22. Juli 2011: [4] Kachelmann gegen Jung Der Zwist der Wetterfrösche
Anmerkung: Es „gelingt“ natürlich durch Rücksimulation des damaligen Wetters. Leider sind diese Simulationen mit den schlechten Daten kalibriert.

Historische Daten

Richtig interessant wird es immer, wenn sich zum betrachteten Gebiet auch historische Daten finden. Solche liegen zum Fluss Mulden, der im Vogtland der Elster gegenüber liegt und genau so hochwasserträchtig ist, vor [7]. Und daran ist gezeigt, dass die Hochwasser dieser Gegend nicht mit der Temperatur oder den Niederschlag, sondern mit Trendumkehrungen des Klimas korrelieren.
[7] Landesamt für Umwelt und Hydrologie, Uwe Büttner: Die größten Hochwasser im Gebiet der Mulden
… Im Zusammenhang mit den Untersuchungen von Glaser (2001) zur mitteleuropäischen Klimageschichte in den letzten 1000 Jahren wird deutlich, dass die Zeitpunkte des Eintretens großer Hochwasser am Beispield es Muldengebietes mit markanten Änderungen und mit Trendumkehrungen in den Temperatur- und Niederschlagsverläufen korrespondieren. Sie treten außerdem in Zeiten sowohl der Über- als auch der Unterschreitung der Temperatur- und Niederschlagsmittelwerte auf (Abb. 20 und 11) …

Bild 17 [7] Temperaturverlauf Mitteleuropa seit dem Jahr 1000 mit Hochwasserereignissen der Mulden (Vogtland)

Bild 18 [7] Niederschlagsverlauf Mitteleuropa seit dem Jahr 1000 mit Hochwasserereignissen der Mulden (Vogtland)

Quellen
[1] EIKE 27. Mai 2018: Roda Verheyen schlägt wieder zu: EUGH wird angerufen weil die EU Klimaziele nicht streng genug verfolgt werden!
[2] EIKE 24.05.2018: Das „natürliche“ Wetter einzuklagen, wird weltweit immer beliebter
[3] msn wetter, Berliner Kurier: Klimawandel-Schock: Rekord-Hitze und heftige Unwetter
[4] Stern 22. Juli 2011: Kachelmann gegen Jung Der Zwist der Wetterfrösche
[5] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[6] TU Dresden Institut für Hydrologie und Meteorologie 2012, Dissertation: Regionalisierung von Hochwasserscheiteln auf Basis einer gekoppelten Niederschlag-Abfluss-Statistik mit besonderer Beachtung von Extremereignissen
[7] Landesamt für Umwelt und Hydrologie, Uwe Büttner: Die größten Hochwasser im Gebiet der Mulden
[8] Umweltbundesamt: Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel Bericht der Interministeriellen Arbeitsgruppe Anpassungsstrategie der Bundesregierung
[9] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
[10] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels
[11] EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch




Experimen­telle Verifi­kation des Treibhaus­effektes

1. Einführung

In der ersten Mitteilung (1 hier ) wurde eine neuartige Apparatur vorgestellt, die im Gegensatz zu den bisher bekannten Untersuchungsmethoden nicht die austretende IR-Strahlung (Transmission), sondern die IR-Gegenstrahlung (Treibhauseffekt) von IR-aktiven Gasen untersucht. Die Apparatur enthält als wesentliche Bestandteile eine sogenannte Erd-Platte und in einem großen Abstand eine Aerosol-Platte, die stellvertretend für die Erdoberfläche und für eine Wolkenschicht stehen. Bei einem ersten Test mit Propan als Modell-Treibhausgas wurde gefunden, dass dieses Gas eine bereits vorhandene, konstruktionsbedingte Gegenstrahlung EG unter bestimmten Voraussetzungen erhöhen kann. Diese Untersuchung wurde nun mit Methan, CO2, Lachgas, Butan und Freon 134a wiederholt. Hierzu wurde die auf 16 °C temperierte Apparatur mit 1,3 Vol.-% des IR-Gases gefüllt und danach nur die Aerosol-Platte schrittweise bis auf – 18 °C abgekühlt. Bei jedem Abkühlungsschritt wurde die Heizleistung QE ermittelt, die für eine konstante Temperatur der Erd-Platte von 16,09 °C erforderlich ist (experimentelle Daten siehe Kap. 4).
Diese Art der Versuchsdurchführung wird „Abkühlungs-Modus“ genannt, da die Temperatur der Aerosol-Platte schrittweise gesenkt wird. Mit dieser Technik lässt sich die wechselseitige Beeinflussung von einer IR-Gas-Strahlung mit der Hintergrundstrahlung der Aerosol-Platte untersuchen. Bei der alternativen Versuchsdurchführung, dem „Konzentrations-Modus“, werden die Strahlungen der IR-Gase bei konstanten Temperaturen aber unterschiedlichen Konzentrationen der Gase analysiert. Hier ist von vornherein die Aerosol-Platte viel kälter als ihre Umgebung. Dieses Verfahren ist besser geeignet, die konzentrationsabhängigen Emissionsgrade der IR-Gase zu ermitteln, worüber in den folgenden Mitteilungen berichtet werden soll.
Die gefundenen Heizleistungen QE werden über die Temperatur der Aerosol-Platte TH (als T4/108, in Kelvin) in einem Excel-Diagramm aufgetragen (Abb. 1). Die zweite X-Achse TpH in °C dient der Orientierung. Der Übersicht halber werden die einzelnen Messpunkte von + 16 bis – 18 °C nur beim Freon angegeben.
In der ersten Mitteilung (1) wurde abgeleitet, dass die Heizung der Erd-Platte QE zahlenmäßig mit der Strahlungskühlung PE identisch ist. Die Strahlungskühlung PE ist die Energie, die die Erd-Platte als Differenz ihrer IR-Ausstrahlung ME und Empfang einer IR-Gegenstrahlung EG verlieren würde (Gleichung 1). ME ist in dieser Gleichung die IR-Ausstrahlung der Erd-Platte von 396,9 W/m2 (berechnet nach Stefan-Boltzmann, ε = 1).
Um ein Abkühlen der Erd-Platte durch Strahlungskühlung zu verhindern, muss ihr von außen Wärme zugeführt werden. Die Erd-Platte hat eine konstante Temperatur wenn QE = PE ist. Die Y-Achse zeigt somit auch die Strahlungskühlung PE an, die von den IR-Gasen beeinflusst wird.
Gleichung 1:

Man kann den Treibhauseffekt mit der Strahlungskühlung PE oder mit der Gegenstrahlung EG charakterisieren, da beide Größen, wie in Gleichung 1 angegeben, miteinander verknüpft sind. Aber ACHTUNG! Strahlungskühlung und Gegenstrahlung verhalten sich gegenläufig. Eine starke Gegenstrahlung hat eine geringe Strahlungskühlung zur Folge!
In der Literatur wird die Strahlungskühlung (Gleichung 1) als „effektive Ausstrahlung“ der Erde bezeichnet. Der alternative Begriff „Strahlungskühlung“ zeigt, dass es sich hier um eine Kühlung durch IR-Strahlung handelt. Damit soll deutlicher hervorgehoben werden, dass die Erde noch weitere Kühlungsmöglichkeiten, wie z.B. Wasserverdunstung oder Konvektion, hat.
Aus den experimentell ermittelten Messpunkten werden die linearen Excel-Trendlinien berechnet (Tab. 1). Die Trendlinien bestehen aus einem konstanten Teil PE(TH=0) (maximale Strahlungskühlung ohne Gegenstrahlung von der Aerosol-Platte) und einem variablen Teil dPE/dTH (Verlauf der Geraden).
Alle neu untersuchten IR-aktiven Gase zeigen ein ähnliches Strahlungsverhalten wie Propan, aber mit deutlich unterschiedlichen Strahlungskühlungen PE. Damit erweist sich die sehr einfache Versuchsapparatur als durchaus geeignet, den erdnahen Treibhauseffekt zu überprüfen. Die IR-Gase sind in Tab. 1 nach der Wirksamkeit ihres Treibhauseffektes (Abnahme der Strahlungskühlung PE) angeordnet. Eine erste Überraschung ist die Reihenfolge von Methan und CO2. Methan, angeblich ein wesentlich stärkeres Treibhausgas als CO2, erweist sich hier als der schwächere IR-Gegenstrahler. Da bei der aktuellen Versuchsserie der Einfluss der Hintergrundstrahlung im Mittelpunkt stand, soll das unerwartete Resultat der Methan-Strahlung hier nicht weiter kommentiert werden.
In einer weiteren Versuchsserie (dann jedoch im Konzentrations-Modus) wurden alle o.g. IR-Gase noch einmal hinsichtlich ihrer Strahlungsfähigkeit untersucht. Dabei wurde die geringere IR-Strahlung des Methans im Vergleich zum CO2 erneut festgestellt, worüber später berichtet werden soll.
Tabelle 1: Excel-Trendlinien für die Strahlungskühlung der Erdplatte: PE = dPE /dTH ∙ TH + PE(TH=0)

Die Messung im Abkühlungs-Modus macht es möglich, die gegenseitige Beeinflussung der IR-Gas-Strahlung und einer Hintergrundstrahlung in einem Diagramm darzustellen. Dabei wird die Aerosol-Platte als Hintergrundstrahler bezeichnet, da sie sich aus Sicht der Erd-Platte hinter den IR-Gasen befindet. Die Aerosol-Platte scheint für den Treibhauseffekt von geringer Bedeutung, da der größte Teil ihrer Strahlung von den IR-Gasen verdeckt wird und sie also nur im Hintergrund agiert. Das ist eine fundamental falsche Einschätzung, wie im Folgenden gezeigt werden soll.

Abb. 1: Beeinflussung der Strahlungskühlung der Erd-Platte PE durch IR-Gase und durch die Temperatur TH der Aerosol-Platte


Aus Abb. 1 ist ersichtlich, dass die Strahlungskühlung der Erd-Platte PE nicht nur von der Wirksamkeit eines IR-Gases, sondern auch von der Temperatur der Aerosol-Platte TH abhängig ist.
Je größer das Strahlungsvermögen eines IR-Gases, desto geringer die Energieabgabe der Erd-Platte durch IR-Strahlung (Strahlungskühlung PE). Andererseits wird die Strahlungskühlung PE aber auch von der Temperatur der Aerosol-Platte beeinflusst, wie an dem abschüssigen (negativen) Verlauf der Trendlinien zu sehen ist. Die Wirkung der IR-Gase kann sogar null werden, wenn Erd- und Aerosol-Platte die gleiche Temperatur haben. Diese Relativierung des Treibhauseffektes durch einen Hintergrundstrahler wurde in der 1. Mitteilung ausführlich abgeleitet.
Die Verringerung des Treibhauseffektes wird durch eine Art Gegenbewegung verursacht. Wenn sich die Strahlung eines Treibhausgases EVG (als Vordergrund-Strahler) erhöht (verringert), verringert (erhöht) sich auch zu einem gewissen Umfang der Teil der Hintergrundes EHG(TH), der die Erd-Platte tatsächlich erreicht (Gleichung 2). Letztendlich ist durch diese Gegenbewegung die Zunahme (Abnahme) der gemeinsamen Gegenstrahlung beider Strahlungsquellen (EG) stets kleiner als die Summe der theoretischen Strahlungen von Vor-und Hintergrund. Vordergrund- und Hintergrundstrahler können als Strahlungskonkurrenten bezeichnet werden, die sich gegenseitig bei der IR-Bestrahlung der Erdoberfläche EG behindern (1).
Gleichung 2:

Dieser Zusammenhang ist von grundsätzlicher Bedeutung und gilt auch für Wolken. Wolken können einerseits je nach Schichtdicke und Wolkenart bis zu 90 % der Sonneneinstrahlung reflektieren (Wolken-Albedo, (2)) und damit die Erde abkühlen. Andererseits verursachen Wolken als IR-Strahler aber auch eine Erwärmung der Erde, was ihre Bewertung bisher so schwierig machte. Die Konkurrenz mit Treibhausgasen verringert nur den Beitrag der Wolken bei der IR-Bestrahlung der Erde (ihre wärmende Seite) und nicht die wolkenbedingte Streuung und Reflektion des Sonnenlichtes. Wegen dieser einseitigen Einflussnahme der Treibhausgase sollte eine Neubewertung von Wolken erforderlich sein. Es ist zu vermuten, dass, im Gegensatz zur Lehrmeinung, jede Form von Wolken zur Erdkühlung beiträgt! Bisher galt, dass nur tiefe, optisch dichte Wolken die Erde kühlen, aber hohe, optisch dünne Wolken die Erde erwärmen (3).
Die gegenseitige Konkurrenz bedeutet, dass auch umgekehrt Wolken/Aerosole die Wirksamkeit der Treibhausgase verringern. Deswegen sind Zweifel an der IPCC-Formel für den CO2-Strahlungsantrieb angebracht (Gleichung 3), da hier nur die theoretische CO2-Strahlung ohne Hintergrundstrahlung berechnet wird. Eine ausführliche Auseinandersetzung mit dieser IPCC-Formel und Vorstellung einer eigenen CO2-Strahlungsformel soll in der nächsten Mitteilung erfolgen.
Gleichung 3:

Aus Abb. 1 ist auch ersichtlich, dass eine Messung der IR-Gas-Strahlung (mit dieser Apparatur) nur vor einem wesentlich kälteren Hintergrund möglich ist. Wenn Erd- und Aerosol-Platte die gleiche Temperatur haben ist die Strahlungskühlung PE null, unabhängig ob Treibhausgase vorhanden sind oder nicht.
Hinzukommt, dass Treibhausgase (bei bestimmten Wellenlängen) durchsichtig sind. Der IR-Sensor (die Erd-Platte) „sieht“ nicht nur die IR-Gase, sondern auch den Hintergrund (Aerosol-Platte). Beide Strahlungsquellen gehen also in die IR-Messung ein. Ideal wäre ein Hintergrund mit der Temperatur TH = 0, von dem keine IR-Strahlung ausgeht. Die hohe Linearität R2 (Pearson-Funktion > 0,998) der gefundenen Trendlinien PE (Tab. 1) bei der Abkühlung bis -18 °C macht es aber möglich, durch Extrapolation bis T= 0 rechnen zu können. So lässt sich die reine IR-Gas-Strahlung (ihr theoretisches Strahlungspotential), ohne Hintergrundstrahlung der Aerosol-Platte, ermitteln.
Zusätzlich zur Strahlung der Aerosol-Platte gibt es noch eine Strahlung der Aluminiumwand der Apparatur, die als eine Konstante die Messungen beeinflusst und bei der Messung „ohne IR-Gas“ mit 102 W/m2 ermittelt wurde (1).
Die vorgestellten Versuche sind nur Labor-Untersuchungen, die den Treibhauseffekt der erdnahen Atmosphäre modellieren. Aber wird die IR-Gegenstrahlung der realen Atmosphäre auch von Wolken beeinflusst? Das ist eine Frage, die sich schon die Pioniere der Klimaforschung stellten. Schon Anfang des 20. Jahrhunderts hat Knut Ångström ein Pyrgeometer entwickelt, das die „dunkle“ (IR) Strahlung der Atmosphäre ermitteln konnte (4). Wie auch bei der eigenen Apparatur wurde der elektrische Strom gemessen, der für eine gleichbleibende Temperatur eines geschwärzten, dem Himmel ausgesetzten Thermoelementes benötigt wird. So gesehen ist die vorgestellte, eigene Apparatur eine Anlehnung an das Pyrgeometer von Knut Ångström. Sein Sohn, Anders Ångström, und Sten Asklöf haben die nächtliche „Wärmeaustrahlung“ in verschiedenen Regionen der Erde untersucht und festgestellt, dass sie von der Lufttemperatur und der Luftfeuchtigkeit aber vor allem vom Bewölkungsgrad abhängt (5). Es wurde gefunden, dass die effektive Ausstrahlung (Strahlungskühlung) der Erde bei bewölktem Himmel nur rund 23 % im Vergleich zum klaren Himmel beträgt. Diese ersten, einfachen Messungen der effektiven IR-Ausstrahlung der Erde wurden durch spätere Messungen mit verbesserten Geräten überprüft. Dabei wurde festgestellt:Bei bedecktem Himmel betrug die Intensität der effektiven Ausstrahlung im Mittel 18,5% des Wertes bei wolkenlosem Himmel (6).
Dass Wolken als starke IR-Strahler die nächtliche Abkühlung (z.B. im Winter) erheblich mindern können, gehört mittlerweile zum Allgemeinwissen. Angesicht der vielen bekannten Untersuchungen wären eigene Messungen eigentlich nicht nötig gewesen. In der Zwischenzeit sind jedoch die Geräte zur Messung der IR-Strahlung dank Mikroelektronik nicht nur wesentlich handlicher, sondern vor allem auch erschwinglicher geworden. Um mit eigenen Augen die atmosphärische Gegenstrahlung kennenzulernen, wurde die IR-Strahlung des Himmels über Berlin von Juli 2016 bis Mai 2017 in unregelmäßigen Abständen mit einem Pyrometer PCE-891 (ein Infrarot-Thermometer) bei unterschiedlichen Bewölkungsgraden gemessen. Die Messungen des bewölkten Himmels zeigten erwartungsgemäß eine sehr starke, durch Wolken verursachte Gegenstrahlung. Unerwartet spannend wurden die Messungen des wolkenfreien Himmels. Nach Auffassung von F. Möller sind nur die IR-Gase Wasserdampf, CO2 und in kleinem Umfang Ozon, Methan und Lachgas die Ursache der atmosphärischen Gegenstrahlung bei klarem Himmel, die sich mit seinen Strahlungsdiagrammen berechnen lassen (7). Die IR-Strahlung von Wasserdampf und CO2 wird nicht bestritten. In den folgenden Kapiteln wird jedoch gezeigt, dass mit hoher Wahrscheinlichkeit auch von den nicht sichtbaren Aerosolen eine erhebliche IR-Strahlung erzeugt wird und hier ein Umdenken erforderlich ist.

Der wolkenfreie Himmel – die Strahlung der nicht sichtbaren Aerosole?

Laut Wikipedia sind die IR-aktiven Gase die einzigen IR-Strahler, die bei klarem Himmel eine Gegenstrahlung zur Erde schicken. „Bei klarem Himmel besteht die Gegenstrahlung hauptsächlich aus der Wärmestrahlung der Atmosphärengase“ (8).
So wurde mit einem Pyrgeometer (im IR-Wellenlängenbereich von 5 bis 25 μm) von einer Wetterstation bei München am 6. Oktober 2005 der Verlauf der Gegenstrahlung während eines Tages gemessen. „Während des Vormittags herrschte Hochnebel. Die Nebeltröpfchen trugen als effiziente langwellige Strahler zu relativ hohen Strahlungswerten von ca. 370 W/m² bei. Gegen Mittag löste sich der Nebel auf und ließ einen klaren Himmel zurück. Die Atmosphärengase alleine sind weniger effiziente langwellige Strahler, die Strahlungswerte gingen daher merklich zurück, auf etwa 300 W/m². … Über das Jahr und den ganzen Globus gemittelt beträgt die Intensität der Gegenstrahlung etwa 300 W/m² “.
Die These einer exklusiven IR-Gas-Strahlung deckt sich mit der Aussage neuzeitlicher Meteorologen: „Der klare Himmel enthält nur wenige kleinste Partikel. Es liegt eine reine gasförmige Atmosphäre und kein Aerosol vor…“ (9).
Die Thesen provozieren allerdings Zweifel, denn dann hätten die großen Ballungsgebiete der Erde kein Feinstaubproblem, es gäbe keinen Sahara-Staub, die Pflanzen kämen ohne Pollen aus und es wäre fraglich wie sich Wolken überhaupt bilden können, denn: „Die Wassertröpfchen (der Wolken) bilden sich um Kondensationskerne (Aerosole, Anm. d Verf.) herum, wenn die relative Feuchtigkeit der Luft 100 % geringfügig (um höchstens 1 %) übersteigt“ (10).
Tatsächlich gibt es eine Reihe von Beobachtungen und Indizien, die alle darauf hinweisen, dass die atmosphärische Gegenstrahlung bei wolkenfreien Himmel gemeinsam von IR-aktiven Gasen (hauptsächlich Wasserdampf und CO2) und den nicht sichtbaren Aerosolen erzeugt wird. Aufgeführt werden drei völlig unterschiedliche Untersuchungen: Die eigenen Temperatur-Messungen des klaren Himmels über Berlin (Kap. 2.1), Messungen der Boden-Temperatur aus größerer Höhe (Kap. 2.2) und Berechnungen der Wasserdampf-Strahlung mit Formel von Ångström und anderen Forschern (Kap. 2.3). Jedes dieser Argumente mag für sich alleine fragwürdig sein, aber in ihrer Summe bilden sie ein schlüssiges Konzept einer Aerosol-Strahlung, die von der modernen Klimaforschung offensichtlich vernachlässigt wurde. Dabei waren sich die Vorväter der Meteorologie ursprünglich einig, dass sich: Millionen von Staubteilchen in der Luft befinden und sogar einen Beitrag zur sogenannten Rückkehr- oder Kältekonvektion während der nächtlichen Abkühlung leisten(11).
Temperatur-Messungen des wolkenfreien Himmels
Zum Erforschung der atmosphärischen Strahlung wurde der wolkenfreie Himmel über Berlin zu unterschiedlichen Tag- und Nachtzeiten mit einem Pyrometer PCE-891 (ein Infrarot-Thermometer) gescannt. Das verwendete Pyrometer besitzt einen eingebauten Filter, der nur IR-Strahlen der Wellenlängen 8 – 14 µm durchlässt und ist mit einer Optik 50:1 ausgestattet, die eine Fokussierung ermöglicht. Damit misst das Pyrometer in einem Wellenlängenbereich, der nur wenig von CO2 oder Wasserdampf beeinflusst wird (atmosphärisches Fenster). Protokolliert wurde die Temperatur des Himmels bei Höhenwinkeln von 0 bis 90 Grad (Winkel über dem Horizont). Dabei wurde die Messung bei 0 Grad mit der Lufttemperatur in einer Höhe von 1,8 m gleichgesetzt. Die gefundenen Messwerte sind extrem vom Höhenwinkel abhängig (Tab. 2). Im Durchschnitt wurde ein Unterschied von 22 K zwischen den Winkelmessungen von 20 und 90 Grad gefunden. Die starke Winkelabhängigkeit lässt sich durch schwache IR-Strahler erklären, die eine große Schichtdicke (mehrere Kilometer) für die Sättigung ihrer Strahlungen benötigen. Dabei ist bei der senkrechten Messung der Anteil der kalten atmosphärischen Schichten größer als beim flachen 20 Grad Winkel. Um eine Vorstellung zu bekommen, was die Temperatur-Messungen bedeuten, wurde in der Tabelle ein „Strahlungsäquivalent“ in W/m2 angegeben. Es ist die Strahlungsdichte, die ein „Schwarz-Körper“ bei den gemessenen Temperaturen emittieren würde.
Wer oder was verursacht aber diese IR-Strahlungen? Der Messbereich des Pyrometers von 8 – 14 µm ist zu groß, um Treibhausgase per se auszuschließen zu können. Da wäre zunächst das Ozon, das bei 9,6 µm, also ziemlich mittig, ein Emissions-Maximum hat. Bei den Ozon-Emissionen handelt es sich um sehr kleine, selbst im Zentrum nicht gesättigte Banden, die vernachlässigt werden können. Aus den Messungen des Wettersatelliten Tiros im Wellenlängenbereich 7,5 – 13,5 µm weiß man, dass auch in geringem Umfange CO2 und Wasserdampf IR-Emissionen in diesem Wellenbereich aussenden (siehe Kap. 2.2). Diese beiden Treibhausgase können also teilweise die Winkelabhängigkeit erklären. Allerdings sind die beobachten Unterschiede der Himmels-Strahlung von 90 W/m2 zwischen der 20 und 90 Grad Messung (Tab. 2, B – D) zu hoch, um sie allein durch H2O- und CO2-Strahlung erklären zu können. Schließlich haben diese Gase im Wellenbereich des Pyrometers keinen Haupt-Peak sondern nur Ausläufer, die die Messung beeinflussen. So bleibt als plausible Erklärung nur die Annahme einer gemeinsamen Strahlung von Treibhausgase und Aerosolen. Aerosole, als feste oder flüssige Partikel, erzeugen eine kontinuierliche Strahlung mit einem Maximum zwischen 11 und 12 µm (Wiensches Verschiebungsgesetz), das perfekt mit dem Messbereich des Pyrometers übereinstimmt.
Tabelle 2: Temperaturmessung bei klarem Himmel: Pyrometer PCE-891

Die Winkelabhängigkeit der IR-Gegenstrahlung bei klarem Himmel ist keineswegs eine neue Entdeckung. So wurde bereits 1933 in der Nacht vom 19. zum 20. Mai in Föhren bei Trier mit einem „Effektiv-Aktinometer“ eine Abhängigkeit der effektiven Ausstrahlung (Strahlungskühlung) vom Höhenwinkel festgestellt (Tab. 3) (12).
Tabelle 3: „Meridionale Intensitätsverteilung der effektiven Ausstrahlung in relativen Einheiten, Zenit = 100“ nach Kessler und Kaempfert
Temperaturmessung der Erdoberfläche aus größerer Höhe
Im Juli 1961 wurde von der NASA der Wettersatellit TIROS III in eine Erdumlaufbahn gebracht, der u.a. mit einen IR-Sensor (Tiros Channel 2, IR-Empfindlichkeitsbereich von 7,5 – 13,5 µm) ausgerüstet war. Dabei stellte sich heraus, dass die im Orbit gemessenen Strahlungstemperaturen der Erdoberfläche stets niedriger sind als die tatsächlichen Temperaturen vor Ort. Es wurde erkannt, dass die Temperatur-Messungen von der (kalten) Atmosphäre beeinflusst wurden. Das „atmosphärische Fenster“ im Bereich 7,5 – 13,5 µm war offensichtlich nicht so transparent wie erhofft. Dabei wurden vor allem die IR-Strahlungen von Wasserdampf, CO2 und Ozon als Ursache dieser Atmosphären-Strahlung ausgemacht. Die nicht sichtbaren Aerosole als weitere Strahlungsquelle wurden merkwürdigerweise nicht beachtet. Dabei gab es einen deutlichen Hinweis auf eine mögliche Aerosol-Strahlung. So betrug die Abweichung 13,3 K bei einer „extrem feuchten“ Atmosphäre über Panama (15.11.1961). Über der trockenen Sahara- Wüste (Colomb-Bechar, 15.07.1961) betrug trotz geringer Wasser-Konzentration die Abweichung immer noch 8,8 K (13). Das ist ein Wert, der ausreichend Raum für eine Aerosol-Strahlung bietet.
Ein weiterer Hinweis findet sich im Bericht über Temperatur-Messungen von Wasseroberflächen aus einer Höhe von bis zu 2400 m (vom Flugzeug oder Hubschrauber) mit einem PRT-Radiometer im Spektralbereich 8 – 13 µm. Wie schon bei den Messungen des Tiros-Satelliten wurde eine Abweichung zwischen Strahlungs-Temperatur und tatsächlicher Oberflächen-Temperatur festgestellt. Wegen der geringeren Höhe war die Abweichung mit 2 – 3 K entsprechend kleiner. Dabei erwies sich der Einfluss der Luftfeuchte geringer als erwartet: Die Erfahrung zeigt, dass die Luftfeuchtigkeit einen wesentlich geringeren Einfluss auf die Korrekturwerte für die Strahlungstemperatur hat als die Lufttemperatur“ (14). Auch wenn der Autor die Rolle der Aerosole nicht anspricht, können seine gefundenen Abweichungen als Aerosol-Strahlung interpretiert werden.
Die Wasserdampf-Strahlung bei wolkenfreiem Himmels
Die Messungen des wolkenfreien Himmels mit dem Ångström-Pyrgeometer zeigten, dass die atmosphärische Gegenstrahlung von Temperatur und Feuchtigkeit der Luft abhängig ist. Zur Berechnung dieser Strahlung ließ sich Ångström von der Überlegung leiten, dass die effektive IR-Ausstrahlung Ae der Erde durch die Differenz von ihrer Ausstrahlung (σ ∙ T4Erde) und der Gegenstrahlung der Atmosphäre (G) gebildet wird (Gleichung 4, siehe auch Gleichung 1) (5). Stellt man die Gleichung um, ist die Gegenstrahlung G die Differenz von Erd- und effektiver Ausstrahlung. Dabei wird nach Ångström die effektive Ausstrahlung Ae durch eine modifizierte Stefan-Boltzmann-Gleichung berechnet, deren Koeffizienten experimentell ermittelt wurden. Unter der Annahme, dass erdnahe Atmosphäre und Erdoberfläche die gleiche Temperatur haben lässt sich die Gegenstrahlung G nach Gleichung 4 berechnen.
Gleichung 4:

Umfangreiche Messungen in den nachfolgenden Jahren bestätigten, dass die Gegenstrahlung von Luft-Temperatur und -Feuchte abhängt. Dabei wurden die Koeffizienten von Bolz und Falkenberg korrigiert (15).
Gleichung 5:

In der Klimaforschung ist es heute üblich, Strahlungsdiagramme zur Berechnung der atmosphärischen Aus- und Gegenstrahlung auf Basis der Absorptionslinien der IR-aktiven Gase zu benutzen (7). Die Rechnungen benötigen Großrechner und sind für einen Außenstehenden schwer nachzuvollziehen und vor allem nicht überprüfbar. Da sie die Ergebnisse von Ångström aber im Grundsatz bestätigen, kann man weiterhin mit der einfachen bzw. korrigierten Ångström-Formel die Wasserdampf-Strahlung ermitteln. Vor allem sind die Rechnungen vertrauenswürdig, da sie von einer großen Zahl von Feldversuchen bestätigt wurden. Tab. 4 zeigt die atmosphärische Gegenstrahlung bei einer Lufttemperatur von 15 °C, berechnet nach der Formel von Bolz/Falkenberg für Luftfeuchten von 0 bis 100 % (Klammer-Werte wurden nach der Ångström-Formel berechnet). Der Anteil der Wasserdampf-Strahlung an der berechneten Gegenstrahlung wurde aus der Zunahme der IR-Strahlung zum Basiswert von 223 W/m2 (ohne Wasserdampf; rel. Feuchte = 0) ermittelt.
Die Rechnungen offenbaren zwei fundamentale Widersprüche: Die atmosphärische Gegenstrahlung wird bei klarem Himmel bei 15 °C nur zu einem kleinen Teil (30 % nach Bolz/Falkenberg) von Wasserdampf verursacht, und die H2O-Strahlung ist viel kleiner als nach den Absorptionsbanden des Wasserdampfes zu erwarten wäre.
Tabelle 4: Berechnungen der atmosphärischen Gegenstrahlung bei wolkenfreiem Himmel bei 15 °C nach Bolz/Falkenberg und Ångström (in Klammern)

Die o.g. These: „Bei klarem Himmel besteht die Gegenstrahlung hauptsächlich aus der Wärmestrahlung der Atmosphärengasewird durch diese Rechnungen nicht bestätigt. Addiert man zur Wasserdampf-Strahlung noch die CO2-Strahlung (angeblich rund die Hälfte der H2O-Strahlung) kommen die beiden wichtigsten Treibhausgase nur auf rund 45 % der atmosphärischen Gegenstrahlung. 55 % der atmosphärischen Gegenstrahlung werden also nicht von Treibhausgasen erzeugt! Es muss noch eine weitere Strahlungsquelle (die Strahlung der Aerosole?) geben, um die gemessene Gegenstrahlung des Himmels erklären zu können.
Aber auch die maximal erreichbare H2O-Strahlung von 95 W/m2 bei 100 % rel. Feuchte ist verwunderlich. Dieser Wert ist nur 50 % der theoretischen H2O-Strahlung von rund 190 W/m2. Letzteres ist ein Schätzwert, der sich aus dem Planck’schen Strahlungsgesetz und der Annahme der Sättigung aller H2O-typischen Absorptionsbanden zwischen 5 – 8 und 17 – 100 µm bei 15 °C ergibt.
Diese Widersprüche lassen sich durch eine gemeinsame Gegenstrahlung von Wasserdampf und Aerosolen auflösen, worauf in Kap. 3 ausführlicher eingegangen wird.
Anmerkung: Das Pyrgeometer von Ångström hat keinen Strahlungs-Filter. Es werden alle relevanten Wellenlängen der atmosphärischen Gegenstrahlung erfasst. Damit wird hier, anders als bei den eigenen Messungen (Kap. 2.1), die gesamte atmosphärische Gegenstrahlung gemessen.
Die IR-Gegenstrahlung unter Wolken
1. Temperatur-Messungen des bedeckten Himmels
Nach der gleichen Methode, wie im Kap. Der wolkenfreie Himmel – die Strahlung der nicht sichtbaren Aerosole?.1 beschrieben, wurde der wolkenbedeckte Himmel (tiefe Schichtwolken) über Berlin mit dem Pyrometer PCE-891 gescannt (Tab. 5).
Wie schon bei der Temperatur-Messung bei klarem Himmel dargelegt, erfassen die Messungen nur einen Teil der atmosphärischen Gegenstrahlung (Wellenlängen-Bereich von 8 – 14 µm). Die starke Zunahme der IR-Strahlung von 122 W/m2 (90 Grad Messungen), im Vergleich zum wolkenlosen Himmel (Tab. 2 und Tab. 5), zeigt eindeutig, dass hier hauptsächlich die Strahlung der Wolken gemessen wird.
Ansonsten zeichnet sich diese Messreihe unter Wolken durch eine geringere Winkelabhängigkeit der Messwerte von 3,3 K zwischen der 20 und 90 Grad Messung aus, die sich aus dem relativ kurzen Abstand von Boden und Wolken ergibt. Damit bestätigt sich die These, dass die Winkelabhängigkeit der Temperatur-Messungen von schwachen Strahlern der Atmosphäre verursacht wird, die mehrere Kilometer Atmosphäre für eine gesättigte Strahlung benötigen, die unter Wolken nur bedingt vorhanden ist.
Tabelle 5: Temperaturmessung des bedeckten Himmels: Pyrometer PCE-891
2. Die Wasserdampf-Strahlung bei bedecktem Himmel
Übereinstimmend fanden Ångström und Asklöf, dass die effektive Ausstrahlung AW der Erde in Gegenwart von Wolken je nach Wolkenbedeckungsgrad und ihrer Höhe erheblich verringert wird. Aw wird aus der effektiven Ausstrahlung A0 (klarer Himmel) durch Multiplikation mit den Koeffizienten k und w erhalten (5).
Gleichung 6:

Die Gegenstrahlung für den vollständig bedeckten Himmel (w = 10) und einer durchschnittlichen Wolkenhöhe (k = 0,765) ergibt sich nach Gleichung 7, wobei für A0 der Ausdruck Ae aus Gleichung 4 eingesetzt wird.
Gleichung 7:

Tab. 6 zeigt die atmosphärische Gegenstrahlung bei vollständiger Wolkenbedeckung und einer Lufttemperatur von 15 °C bei rel. Luftfeuchten von 0 bis 100 %. Der Anteil der Wasserdampf-Strahlung an der berechneten Gegenstrahlung wurde aus der Zunahme der IR-Strahlung zum Basiswert von 351 W/m2 (ohne Wasserdampf; rel. Feuchte = 0) ermittelt.
Tabelle 6: Berechnungen der atmosphärischen Gegenstrahlung bei vollständiger Wolkenbedeckung und 15 °C nach Ångström/Asklöf
Als erstes fällt die geringe Auswirkung der Luftfeuchte auf. Selbst bei 100 % rel. Luftfeuchtigkeit beträgt der Anteil der Wasserdampf-Strahlung nur 5 % (19 W/m2) der berechneten Gegenstrahlung von 370 W/m2.
Wegen der geringen Wirkung des Wasserdampfes wurden von anderen Forschern alternative Formeln vorgeschlagen, die den Wasserdampf ganz weglassen („da er in der Messgenauigkeit untergeht“) und nur die Wolkenbedeckung als Parameter berücksichtigen (15).
Zur Erinnerung, die Gegenstrahlung (erdnaher Treibhauseffekt) wirkt sich nach Gleichung 1 unmittelbar und direkt auf die Kühlung (Strahlungskühlung) der Erde aus. Die Erde kann bei 15 °C (100 % Feuchte) nur 21 W/m2 (391 – 370) durch IR-Strahlung loswerden. Kein Wunder, dass die Temperaturen bei einer nächtlichen Abkühlung unter einer geschlossenen Wolkendecke kaum zurückgehen. Aber der entscheidende Punkt ist, dass Wasserdampf an diesem starken Effekt nur zu 5 % beteiligt ist. Diese Erkenntnis ist angesichts der aktuellen Global-Warming-Diskussion von besonderer Tragweite. Wasserdampf ist kein x-beliebiges Treibhausgas, sondern das wirksamste IR-aktive Gas der Atmosphäre, das angeblich für 66 bis 85 % aller absorbierten IR-Strahlungen verantwortlich sein soll (16).
Die Naturbeobachtungen (Formeln) der frühen Forscher bestätigen im vollen Umfang die eigenen Laborversuche und daraus abgeleiteten Schlussfolgerungen. Danach verlieren die Treibhausgase in Gegenwart einer geschlossenen Wolkendecke fast vollständig ihre Wirksamkeit.
Selbst moderne IR-spektroskopische Messungen der atmosphärischen Gegenstrahlung in Barrow (Alaska) zeigen, dass der erdnahe Treibhauseffekt der IR-aktiven Gase unter Wolken völlig verschwinden kann (17).
Auch ein Vergleich der beiden Strahlungs-Rechnungen (Tab. 4 und Tab. 6) für den klaren und bewölkten Himmel bietet einige interessante Aspekte:
Ohne Wasserdampf (rel. Feuchte = 0) verursachen Wolken eine Zunahme der Gegenstrahlung von 128 W/m2 (351 vs. 223 W/m2). Ein vergleichbarer Wert von 122 W/m2 wurde bei den eigenen Temperatur-Messungen, allerdings im Messbereich 8 – 14 µm, gefunden (Kap. 3.1).
Aber in einer feuchten Atmosphäre (100 % rel. Feuchte) ist der wolkenbedingte Zuwachs nur noch 67 W/m2 (auf Basis der Ångström-Werte 370 vs. 303 W/m2) (Tab. 4 vs. Tab. 6).
Diese Betrachtungen sind ein weiterer Beweis, dass bei einer gemeinsamen Strahlung von Treibhausgasen und Wolken beide Strahlungsquellen ihre Wirksamkeit einbüßen. Die im Labor gefundenen Zusammenhänge sind also keinesfalls neu, sondern weisen nur experimentell nach, was ursprünglich Lehrmeinung und festes Wissen von Meteorologen und Klimaforschern war.
Die moderne Klimatologie hat die früheren Bestimmungen der erdnahen Gegenstrahlung durch spektroskopische Messungen der IR-Ausstrahlung (Transmission) am oberen Rand der Atmosphäre TOA (Top of the Atmosphere) aus Sicht von Wetter-Satelliten (z.B. Nimbus 4) ersetzt. Die TOA-Spektren zeigen auffällige Absorptions-Kegel für Ozon aber vor allem für CO2, die zu einer Verringerung der gesamten Transmission beitragen. Es wird geschlussfolgert, dass sich die Erde erwärmen muss, um mit den anderen Wellenlängen die fehlenden Transmissionen auszugleichen. Diese Interpretation setzt voraus, dass sich zwischen TOA und Erdoberfläche keine weiteren Strahler befinden. Akzeptiert man aber die Existenz der Aerosole und Wolken als weitere Strahler der Atmosphäre lässt sich schlussfolgern, dass nicht unmittelbar die Erdoberfläche, sondern die Aerosole und die Oberseiten der Wolken sich etwas erwärmen. Ein Vorgang, der indirekt auch die Temperatur der Erdoberfläche beeinflussen sollte, allerdings wesentlich abgeschwächter als die unmittelbar wirksame IR-Gegenstrahlung des erdnahen Treibhauseffektes.

Abb. 2: Berlin am 14.06.2017, 12:20 Uhr, Luft: 20,0 °C (1,8 m): Temperatur-Messungen unterschiedlich dichter Wolken und wolkenfreier Abschnitte.


Die IR-Strahlungen der Wolken und Aerosole sind ähnliche Strahlungskomponenten der Atmosphäre mit kontinuierlichen Übergängen. Aerosole und Wassertropfen zeichnen sich durch eine sehr große Oberfläche (bezüglich ihrer Masse) aus. Das ist eine wichtige Voraussetzung einer Oberflächen-Strahlung von festen und flüssigen Stoffen. In der Atmosphäre ist diese Partikel-Strahlung von ihrer Konzentration (Partikel pro m3 Luft) und der Temperatur ihrer Umgebung abhängig, wie in Abb. 2 deutlich zu sehen ist.
Anhang- Experimentelle Daten
QE ist die elektrische Heizung einer fiktiven Erd-Platte mit einer Fläche von 1 m2. Die tatsächlich gemessenen Werte der verwendeten Erd-Platte (219,04 cm2) sind um den Faktor 0,0219 kleiner. UH ist die Spannung von 5 in Reihe geschalteten Peltier-Elementen (TEC1-12706) auf der Aerosol-Platte, die mit dem Voltmeter (Voltacraft VC 250) gemessen wurden. Diese Elemente registrieren die IR-Ausstrahlung (Strahlungen der Erd-Platte, der Seitenwand und der IR-Gase) und die Wärmeleitung der unmittelbaren Umgebung. Da die Wärmeleitung beim Abkühlen der Aerosol-Platte ständig zunimmt, wird UH bei Experimenten im Abkühlungs-Modus nicht ausgewertet, sondern nur zur Information in den folgenden Tabellen angegeben.
Tabelle 7: ohne IR-Gase

Tabelle 8: Methan

Tabelle 9: CO2

Tabelle 10: Lachgas

Tabelle 11: Propan

Tabelle 12: Freon 134a

Literaturverzeichnis

1. Schnell, Michael. Experimentelle Verifikation des Treibhauseffektes Teil 1: Die gegenseitige Beeinflussung von Wolken und Treibhausgasen. [Online] 25. März 2018. https://www.eike-klima-energie.eu/2018/03/25/experimentelle-verifikation-des-treibhauseffektes-teil-1-die-gegenseitige-beeinflussung-von-wolken-und-treibhausgasen/.
2. Schönwiese, Christian-Dietrich. Klimatologie. Stuttgart : Eugen Ulmer GmbH, 1994.
3. Wagner, Thomas. Strahlungsprozesse in der Atmosphäre. [Online] [Zitat vom: 28. Mai 2018.] https://www.mpic.de/fileadmin/user_upload/pdf/Physik_der_Atmosphaere_Lecture_Wagner.pdf.
4. Michael Krueger. Das Pyrgeometer von Knut Angström und die Bestimmung der Gegenstrahlung des atmosphärischen „Treibhauseffekts. [Online] 8. Oktober 2014. http://www.science-skeptical.de/blog/das-pyrgeometer-von-knut-angstroem-und-die-bestimmung-der-gegenstrahlung-des-atmosphaerischen-treibhauseffekts/0012776/.
5. Albrecht, Fritz. Untersuchungen über den Wärmehaushalt der Erdoberßäche in verschiedenen Klimagebieten. Reichsamt für Wetterdient. Berlin : Julius Springer, 1940.
6. F. Sauberer. Registrierungen der nächtlichen Ausstrahlung. Archiv für Meteorologie, Geophysik und Bioklimatologie, Serie B. 1951, Bde. Vol. 2, Seiten 347-359.
7. Möller, Fritz. Einführung in die Meteorologie. Mannheim/Wien/Zürich : Bibliographisches Institut, 1973. Bd. II.
8. Atmosphärische Gegenstrahlung. [Online] 17. April 2017. [Zitat vom: 1. Mai 2017.] https://de.wikipedia.org/.
9. Ewald Zmarsly, Wilhelm Kuttler, Hermann Pethe. Meteorologisch-klimatologisches Grundwissen: Eine Einführung mit Übungen, Aufgaben und Lösungen. Stuttgart : Eugen Ulmer GmbH & Co., 2002. S. 142.
10. Wolke. [Online] 13. Januar 2006. [Zitat vom: 01. Mai 2018.] https://de.wikipedia.org/wiki/Wolke.
11. Geiger, Rudolf. Das Klima der bodennahen Luftschicht. Braunschweig : Friedr. Vieweg & Sohn, 1942. S. 64.
12. Otto Wilhelm Kessler, ‎Wolfgang Kaempfert. Die Frostschadenverhütung. Berlin Heidelberg : Springer-Verlag, 1940. S. 37.
13. Lönnqvist, Olov. A window radiation chart for estimating surface temperature from satellite observations. [Online] 19. Oktober 1963. https://www.tandfonline.com/doi/pdf/10.3402/tellusa.v15i4.8856.
14. LORENZ, DIETER. Der Einflus einer Luftzwischenschicht auf meteorologische 0berflächentemperaturmessungen mit Radiometern. [Online] 22. Januar 1968. https://onlinelibrary.wiley.com/doi/pdf/10.1111/j.2153-3490.1969.tb00419.x.
15. Schulze, Rudolf. Strahlenklima der Erde. Darmstadt : Dr. Dietrich Steinkopff, 1970. S. 103. Bd. 72.
16. Winter, Maiken. Welche Rolle hat der Wasserdampf beim Treibhauseffekt? [Online] 01. Januar 2008. [Zitat vom: 24. Mai 2018.] https://www.cleanenergy-project.de/gesellschaft/green-lifestyle/wasserdampf-treibende-kraft-beim-treibhauseffekt/.
17. Christopher J. Cox, Penny M. Rowe, Steven P. Neshyba, and Von P. Walden. A synthetic data set of high-spectral-resolution infrared spectra for the Arctic atmosphere. [Online] Earth Syst. Sci. Data, 8, 199–211, 2016, 18. 01 2016. [Zitat vom: 23. 01 2018.] https://www.earth-syst-sci-data.net/8/199/2016/essd-8-199-2016.pdf.
Hier die englische Version des Beitrages 2. Communication – Experimental verification of the greenhouse effect




Renaturierung – eine ökonomische, ökologische und landeskulturelle Fehlinvestition – Renaturierungsprojekt Große Rosin – ein Beispiel

Als „Zweck der Maßnahme“ (Pkt. 3.1) wird herausgestellt:

Der Polder „Große Rosin“ liegt im potenziell natürlichen Überflutungsbereich der Peene und wurde im Zuge der Intensivierung der Landwirtschaft eingedeicht und durch ein weitmaschiges Grabensystem über ein leistungsstarkes Schöpfwerk entwässert. Er besteht aus den Teilflächen Große Rosin, Kleine Rosin und dem Teilpolder Altbauhof, der mittels Durchlass eine Verbindung mit der Kleinen Rosin und damit zum Schöpfwerk Aalbude hat.

Infolge der jahrzehntelangen intensiven Nutzung der Polderflächen und der dadurch bedingten Degradierung des Moores kam es zu Moorsackungen, so dass die Polderflächen aktuell teilweise erheblich unter dem Mittelwasserstand der Peene liegen. Das Gebiet ist Teil der Kernzone des Naturschutzgroßprojektes „Peenetal/Peene-Haff-Moor“ mit gesamtstaatlicher repräsentativer Bedeutung.“

Allein diese treffende Kurzbeschreibung zeugt von der Durchdachtheit und Weitsicht des um 1970 mit hohem Aufwand durchgeführten Meliorationsgroßprojektes. Dieses erbrachte nicht nur enorme ökonomische Vorteile für die LPG sondern befreite die Anwohner von den Unannehmlichkeiten und gesundheitlichen Risiken des Moores. Es bescherte ihnen vor allem auch menschenfreundliches Wohnumfeld und neue Möglichkeiten und Anreize für Freizeitgestaltung, Naherholung und Sport. Die Menschen waren zufrieden und im Einklang mit ihrer Region, erfreuten sich an der Kulturlandschaft und an den sich durch Artenvielfalt gekennzeichneten Biotops einer fruchtbaren Niedermoorlandschaft mit intensiver Grünland- und Viehwirtschaft. Die Region hatte an Attraktivität gewonnen; es entwickelte sich eine touristische Infrastruktur für Urlauber im Sommerhalbjahr.

Der Pflege- und Entwicklungsplan für dieses Naturschutzgroßprojekt legt für den Polder „Große Rosin“ folgende Entwicklungsziele fest:

Aufgabe des Polderbetriebes und Schaffung naturnaher Grundwasserverhältnisse. Das

Grabensystem, insbesondere die Fanggräben, sind zu verschließen. Die dann von der

dauerhaften Überflutung betroffenen Flächen unterliegen der Naturentwicklung. Hier

wird zunächst die Entwicklung von Großseggenrieden und teilweise von Röhrichten

erwartet.

Die weiterhin bewirtschaftbaren Talrandbereiche sollen durch extensive Mahd oder

Beweiden zu artenreichen Feuchtwiesen entwickelt werden.

Die randlich im Niedermoorbereich stockenden Bruchwälder (Hohes Bruch und Wendisch Teichholz) werden in bisher nicht abschätzbarem Maße der Vernässung ausgesetzt. Besonders im Wendisch Teichholz muss mit einem partiellen Verlust der forstlichen Bewirtschaftbarkeit, z. T. auch mit dem Absterben einzelner Bäume gerechnet werden. Diese Waldbereiche sollen aus der Nutzung herausgelöst und künftig einer natürlichen Entwicklung überlassen werden.“

Gemäß diesen „Entwicklungszielen“ wurde auch verfahren. Im Planfeststellungsbeschluß sind dementsprechend nur Zerstörungen von allem Sinnvollen aufgeführt, so dass es im Hinblick auf die ökologischen Verhältnisse sich dem Wesen nach um eine „Rückentwicklung“ ins ökologische Mittelalter handelt.

Was ist nun die Realität, die die Menschen in Verachtung, Wut und Besorgnis bringt?

Von der „Herstellung eines weitgehenden natürlichen Wasserregimes“ oder der „Schaffung naturnaher Grundwasserverhältnisse“ oder „eines naturnahen hydrologischen Systems“ kann keine Rede sein. Im Gegenteil – die gesamten Wasserverhältnisse sind alles andere als naturnah, sind fern ab von „natürlichen“ Wasserverhältnissen und zudem noch völlig nutzlos; haben zum Totalverlust an Wertschöpfung und Zerstörung der teuer erschaffenen Infrastruktur geführt. Aber das ist noch nicht alles: Sie sind zudem – wie später noch darzulegen sein wird –im Hinblick auf den Kampf gegen den Klimawandel kontraproduktiv durch erhöhte Methanemission.

Was ist dem Wesen nach ausgeführt worden und was ist in der Realität entstanden?

Die Große Rosin ist ein Durchströmungstalmoor, das vom Grundwasser und dem Oberflächenwasser der angrenzenden Endmoräne gespeist wird. Durch die zweckentfremdete Nutzung der Deiche als landseitige Staumauern und durch die Verbauungen der Hauptvorfluter mit panzersperrenartigen unregulierbaren Barrieren läuft das Niedermoor wie eine große Badewanne voll. Die in den Deichen absichtlich hoch eingesetzten Rohrduchbrüche mit seeseitigen Verschlussklappen und die Höhe der Grabenverbauungen haben auf fast der ganzen Flachwasserseen mit all seinen negativen ökologischen Folgen entstehen lassen. Der Wasserspiegel wird dadurch in den Renaturierungsgebieten 40 – 60 cm über dem Wasserstand des Kummerower Sees gehalten. Dieses Wasserszenario hat absolut nichts mit einem „naturnahen hydrologischen System“ zu tun. Das würde bei einem sich über Seeniveau einstellenden Wasserstand den Abfluss und umgekehrt bei höherem Wasserstand des Kummerower Sees, d.h. der Peene, den Rückfluss des Hochwassers in die Wiesen gewährleisten und damit würde das Flusstalmoor seiner Bestimmung als natürlicher Ausdehnungs- und Überflutungsbereich, d.h. seiner Funktion als Hochwasserschutz, gerecht werden. Der gegenwärtige Zustand bietet keinen Hochwasserschutz, was in dem regenreichen Sommer 2011 mehr als deutlich an dem Hochwasserstand der Peene im Bereich Neukalen zu bemerken war.

                        Vorher 2002                                                         Nachher 2013
Zwei Bilder, vom gleichen Standort, vom Kützerhofer Damm aus aufgenommen im Jahre 2002 vor und im Jahre 2013 6 Jahre nach der der Renaturierungsmaßnahme, veranschaulichen das Unbeschreibbare am deutlichsten.

Diese aufgezwungenen „Hitchcock“-Landschaften und den Verlust von Lebensraum und Kommerzpotentialen wollen die Bürger und Mandatsträger nicht länger hinnehmen.

Die Große Rosin umfasst eine Fläche von 1074 ha. Das ist für die regenerative Energiegewinnung ein nicht unbedeutendes Potential, gilt es doch in Wahrnehmung der Verantwortung gegenüber dem Welthunger und der notwendigen Reduzierung des Verbrauches fossiler Brennstoffe die Sonnenenergie für produktive Zwecke einzufangen und effektiv zu verwerten. Deutschland hat nicht das Recht, zumindest nicht das moralische, solche Wertschöpfungspotentiale durch Wiedervernässung zu zerstören.

Naturwissenschaftliche Gesichtspunkte

Die Wiedervernässung der fundiert meliorierten „Großen Rosin“, ein Niedermoor mit großer Mächtigkeit (bis zu 10m Tiefe) wurde mit Moorschutz und damit im Zusammenhang stehend mit einer Reduzierung von CO2-Emissionen als ein Element im allseitigen Kampf gegen den Klimawandel begründet.
Im Internet werden, autorisiert vom Ministerium für Landwirtschaft, Umweltschutz und Verbraucherschutz Mecklenburg-Vorpommerns, unter der Internetadresse http://www.moorfutures.de/de/moorfutures/projektbeispiel die folgenden Daten und Fakten
sozusagen als Begründung der Wiedervernässungsmaßnahme und Ableitung der Moor Futures – aufgeführt: 

Daten und Fakten zu diesem Projekt:

Diese Angaben zu Treibhausgasemissionen vor der Vernässung sind wissenschaftlich nicht nachvollziehbar und schlichtweg falsch. Sowohl die Treibhausgasemissionen nach der Wiedervernässung von 10 t CO2-Äquivalente noch die 14 t CO2-Äquivalente „Einsparung pro ha sind wissenschaftlich fundiert und begründet. Nur eines ist sicher – es wird hier staatlicherseits ohne wissenschaftliche Begründung eine große Abzocke inszeniert:
11.760 t CO2-Äqu. x 30 Jahre x 30 € = 10.584.000 €. Das ist bei Aufwendungen für die Wiedervernässung von 1 Mill. ein großartiges Betrugsgeschäft mit dem Feigenblatt des Klimawandels.
Werfen Sie einen Blick zurück auf die Weide/Wiese vor der Renaturierung: Das war die „Große Rosin“. Nun wird behauptet, dass diese Weide/Wiese mit geschlossener Grasnarbe und einer Entwässerung auf einen Grundwasserstand von etwa 80 bis 40 cm unter Flur soll
24 t
CO2-Äquivalente/ha und Jahr emittieren. Dabei ist in Betracht zu ziehen, dass es sich hierbei nicht um kontinuierlich über das Jahr ablaufende Prozesse handelt, sondern dass diese Emissionen nur im Sommerhalbjahr bei Temperaturen über 3° C vonstatten gehen können. Somit würden 24 tCO2-Äquivalente/ ha und Jahr in der Realität 48 t CO2-Äquivalente/ha in den Sommermonaten bedeuten. Damit wird absurd noch absurder!

Um sich diese Größe vorstellen und einschätzen zu können, muss man Vergleiche heranziehen. Der Ertrag von 1 ha Weizen von 100 dt Korn und 40 dt Stroh entspricht entsprechend seines Kohlenstoffgehaltes 20 t CO2 Äquivalenten, das heißt ein ha Grünland müsste sinngemäß den Korn- und Strohertrag von 1,2 ha Weizen oxydieren und emittieren.

Die Absurdität dieser Emissionswerte ergibt sich auch aus der chemischen Betrachtung:

24 t CO2-Äquivalente = 6,55 t Kohlenstoff und 17,45 t Sauerstoff.

Es entstehen 12.729.124 l CO2 , wozu 12.223.071 l Sauerstoff = 58.344.015 l Luft bei totalem bzw. bei biologischem Entzug von absolut 2 % Sauerstoff 2.917.200.727 l bzw.
291 m3 /m2 Grünland benötigt würden. Das entspricht einer Luftsäule von 291 m Höhe, die in den Boden eindringen und das entstehende CO2, das spezifisch schwerere als Luft ist, heraus spülen müsste.

Bei Oxydation des Kohlenstoffs würden 54,6 GJ Aktivierungsenergie benötigt und 214 GJ Energie/ha freigesetzt. Das alles ist absurd!
Die Emissionswerte sind in der Moorschutzliteratur vermutlich mit Absicht nicht definiert, d.h. nach Herkunft und Entstehung oder Bestimmungsmethode nicht erklärt und differenziert. Man argumentiert mit undifferenzierten Pauschalwerten. Auch das ist unwissenschaftlich.

Klimarelevant wäre nur das CO2, das durch Oxydation von fossilem Moorkohlenstoff bzw. durch Decarboxylierung aus fossilem Moorsubstrat, d.h. aus noch weiter abbaubarem strukturiertem Moorsubstrat pflanzlicher Herkunft entsteht. Der postglazial vorwiegend durch Inkohlung entstandene amorphe, die Schwarzfärbung verursachende Moorkohlenstoff oxydiert nicht bei bloßer Gegenwart von Luftsauerstoff. Dieses Kohlenstofffraktion bedarf einer hohen Aktivierungsenergie (vergl. Kohlenanzünder!) und ist an der CO2-Emission nicht beteiligt.
Alles andere CO2 , das durch Atmung der Grünen Pflanzen oberirdisch und durch die Wurzeln unterirdisch oder durch mikrobiellen Abbau (Zersetzung) abgestorbener pflanzlicher und tierischer Biomasse entsteht, ist klimairrelevantes Kreislauf-CO2, denn dieses CO2 wurde zuvor aus der Atmosphäre entnommen und in Biomasse akkumuliert.
Unter den in der „Großen Rosin“ seinerzeit gegebenen hervorragenden hydrologischen Verhältnissen, die einen effektiven Moor- und Umweltschutz gewährleisteten (den Beweis lieferte der erstklassige Zustand des Grünlandes zur Wendezeit) , kann eine CO2-Emission aus Moorsubstrat 1-3 t CO2-Äquivalenten/ha und Jahr veranschlagt werden..
Maßgebend für die ökologische Bewertung eines Standortes sind nicht imaginäre undefinierte CO2-Emissionsangaben, sondern die ökologische Bilanz des Standortes in Abhängigkeit von seiner Nutzung. Die von den Moorschützern postulierten CO2-Emissionswete zeigen nicht nur keinerlei Differenzierung nach der Herkunft und Wirkung, sondern berücksichtigen auch keine Gegenbilanzierung der CO2 -Akkumulation in der erzeugten Biomasse. Das bedeutet, die Emissionswerte sind wissenschaftlich falsch, sind mit Absicht nach oben manipuliert; sind bewusste Irreführung der Gesellschaft und staatlichen Behörden!
Die ökologische Bilanz eines Standortes im Sinne des Klimaschutzes ergibt sich aus der Differenz zwischen CO2-Akkumulation (Festlegung) durch Assimilation und – speziell für Moorstandorte – der CO2-Emission durch Abbau von fossilem Torfmoorsubstrat.

In der Tabelle 1 und in dem Diagramm sind die auf der Grundlage von Literaturrecherchen kalkulierten Beziehungen für Niedermoorgrasland in Abhängigkeit vom Entwässerungsgrad (Wasserstand unter Flur) dargestellt.

Die ökologische Bilanz erreicht im Bereich der Unterflurentwässerung von – 80 bis – 40 cm ein Optimum, d.h. die klimairrelevante produktiv nutzbare CO2-Bindung (Festlegung) beträgt etwa 17 – 22 t CO2-Äquivalente/ha und Jahr, die jedoch sodann im vernässten und überstauten Bereich in eine klimaschädliche Methanemission umschlägt. Dabei nicht einbezogen ist die jährlich im unterirdischen Bereich gebildete Biomasse (Wurzelmasse), die umgerechnet mit ca. 10 t CO2-Äquvilaente/ ha und Jahr veranschlagt werden kann. Bildung und Verrottung von Wurzelmasse ist ein klimairrelevantes Nullsummenspiel; ist Kreislauf-CO2!

In Folgenden sind die Ergebnisse von auf Literaturrecherchen basierenden Modellrechnungen für Grasland- und Renaturierungsflächen auf Niedermoor aufgeführt.

Hierzulande sind „intakte Moore“ und wiedervernässte Renaturierungsflächen (Flachwasserseen) natürliche „Biogasreaktoren“ mit in relativ geringen Mengen anfallender nachwachsender Rohstoffe (Biomasse) und einer Ablagerung (Sedimentation) der unvergärbaren kieselsäure- und ligninhaltigen Zellwandbestandteile (Gärungsrückstände) als Morast. Das gebildete Methan (Biogas) entweicht als „Treibhausgas“ mit einer gegenüber CO2 23-fachen klimaschädigenden Wirkung kontraproduktiv in die Atmosphäre.

Wie sieht die ökologische Bewertung der Moorstandorte im Vergleich zum Kulturgrasbau (Grünlandnutzung) auf meliorierten und wasserstandsregulierten Niedermoorstandorten, wie die Große Rosin es einmal war, aus?

Eine Antwort geben die Ergebnisse von Modellrechnungen mit unterschiedlichen Erträgen bzw. unterschiedlichem Anfall an Biomasse auf den Moorstandorten in Tabelle 2.

Der Kulturgrasanbau auf meliorierten wasserstandsregulierten Niedermoorflächen bindet ertragsabhängig zwischen 12,4 bis 24,8 t CO2-Äquivalente/ha in der erzeugten Biomasse, die ein Biogaserzeugungspotential von 2100 bis 4250 m3 Methan/ha verkörpert, und emittiert als willkommene ökologisch bedeutsame Sekundärleistung der Assimilation 3.300 bis 6.500 m3 Sauerstoff/ha in die Atmosphäre. Als ökologische Kohlenstoffbilanz stehen je ha + 6.300 bis +12.650 m3produktiv nutzbare CO2-Äquivalente auf der Habenseite zu buche.

Die Renaturierungsflächen hingegen weisen laut Modellrechnung bei einem Anfall an Biomasse von 50 bis 300 dt/ha zunächst eine Kohlenstoffbindung von 1,5 bis 8,9 t CO2-Äquivalenten aus, die jedoch nicht produktiv genutzt werden kann. Die Biomasse fällt der

anaeroben Vergärung anheim. Laut „Richtwerte für die Gasausbeuten“ (2010) kann mit einer Methanemission von 320 Normlitern (0°C und 1013 mbar) je kg organischer (aschefreier) Trockensubstanz (oTS), d.h. im Modell mit 250 bis 1500 Nl Methan/ha, gerechnet werden. Das Methan entweicht mit einem Wirkungsfaktor von 23 l CO2-Äquivalenten/ l l Methan in die Atmosphäre und entspricht einer atmosphärischen Wirkung (Belastung) von 5.800 bis 35.000 m3 CO2-Äquivalenten. Dies führt ungeachtet der C-Bindung und Sauerstoffemission bei der Bildung der Biomasse zu einer negativen ökologischen C-Bilanz, im Modell linear zum Biomasseanfall ansteigend von -5000 bis – 30.500 m3 CO2-Äquivalenten/ha, = -101,46 m3CO2-Äquivalente/dt Biomasseertrag. Dadurch sind Moore keine Kohlenstoffsenken und die Renaturierung (Wiedervernässung) von meliorierten Niedermoorflächen ist gegenüber dem Kulturgrasanbau (Grünlandnutzung) sowohl ökologisch als auch ökonomisch, wie z.B. im Hinblick auf regenerative Energieerzeugung, ein Desaster.

Bezogen auf die „Große Rosin“ ergibt sich bei einem Grünmasseertrag (18 % Trockenmasse (TS)) von 800- 600dt/ha und Jahr ein Trockenmasseertrag von 14,4 – 10,8 t TS/ha und Jahr. Das entspricht einer CO2 –Akkumulation/-Bindung von 24 – 18,6 t CO2-Äquivalenten/Jahr. Die ökologische Bilanz beträgt netto ca. 23-21 bzw. 17,6 – 15,6 t CO2-Äquivalente/ha und Jahr.
Daraus ergibt sich für das Territorium der Großen Rosin von 1040 ha ein Wertschöpfungsverlust von

800 dt Grünmasse (18 % TS)

Trockenmasse: 14.976 t

Produktive CO2-Äquivalente 24.960 t
davon Netto-CO2-Bindung 21.840 – 23.920 t
Regenerative Energie (265,3/ha) 275.947 GJ <-> 10.753.600 l Benzin
Methanproduktionspotential 4.408.560 m3

600 dt Grünmasse (18 % TS)

Trockenmasse: 11.232 t

Produktive CO2-Äquivalente 19.344 t
davon Netto-CO2-Bindung 16.224 – 18.304 t
Regenerative Energie (265,3/ha) 206.960 GJ <-> 8.065.200 l Benzin
Methanproduktionspotential 3.306.368 m3

Verlust an Sauerstoffproduktion (-emission):

Sauerstoffemission 8oo dt/ha 6.857.760 m3
600 dt/ha 5.143.632 m3

Diese enormen Leistungspotentiale sind in den Wiesen der Großen Rosin im wahrsten Sinne des Wortes untergegangen. Können wir uns eine solche Vergeudung von wirtschaftlichen Potenzen angesichts der Energiewende leisten? Die Antwort ist ein klares NEIN!

Was wurde nun anstelle dieser Wertschöpfung durch die Renaturierung erreicht?

Bei der Renaturierung der Großen Rosin ist nahezu alles schief gegangen bzw. haben wir es im Gegensatz zu dem durchdachten Meliorationsprojekt mit einer schwerwiegenden Fehlplanung zu tun.

Im Zuge der Renaturierungsmaßnahmen wurden alle zuvor geschaffenen materiellen Werte der Infrastruktur und damit ihre regulierenden Funktionen zerstört. Die zweckentfremdete Nutzung der Deiche als landseitige Staumauern und die Grabenverbauungen bewirken, dass die Große Rosin wie eine Badewanne mit Oberflächen- und Quellwasser voll läuft. Dadurch ist das hydrologische System so missgestaltet worden, dass es nahezu flächendeckend zu einem Überstau von 10 – 30 cm über Flur geführt hat. Demzufolge werden die anfallenden Biomassen größtenteils anaerob zu Methan vergoren und die unvergärbaren kieselsäure- und ligninhaltigen Zellbestandteile am Boden als teilweise strukturierter Bioschlamm (Morast) abgesetzt. Diese Sedimentation ist kein Moorwachstum, für solche Umsetzungen, d.h. zur Reduktion von organisch gebundenem Kohlenstoff gibt es keine Redox-Potentiale; d.h. ein „Moorwachstum“ findet nicht statt.

Hierzu schreibt DRÖSLER et al. (2011):
Überstau während der Vegetationsperiode ist zu vermeiden bzw. auf möglichst kleine Flächen zu beschränken. Wenn sich bei Überstau in nährstoffreichen Niedermooren Mudden bilden oder leicht zersetzbare Grasvegetation fault, können extrem hohe Methanemissionen entstehen, die eine ähnliche oder höhere Klimawirkung wie die Ackernutzung haben können. .. Die Renaturierungspraxis mit großflächigem Überstau, z.B. nach Torfabbau, ist zu überdenken.
Die Ergebnisse und Folgen der Renaturierung der Großen Rosin (1040 ha) sind wie folgt zu beziffern:

Bei einem jährlichen Anfall von 100 bis 300 dt Biomasse/ ha ergibt sich aus Modellkalkulationen (Tabelle 2) folgendes Bild:

300 dt Biomasse/ha

Kohlenstoffbindung 9.266 t CO2-Äquivalente/ha und Jahr
Sauerstoffemission 2.361.840 m3/Jahr
Methanemission 1.581.840 m3/Jahr
Atmosphärische Wirkung 36.374.000 m3/Jahr
Ökologische Bilanz -31.655.520 m3 CO2-Äquivalente/Jahr

100 dt Biomasse (18 % TS)/ha

Kohlenstoffbindung 3.089 t CO2-Äquivalente/ha und Jahr
Sauerstoffemission 787.280 m3/Jahr
Methanemission 527.280 m3/Jahr
Atmosphärische Wirkung 12.124.320 m3/Jahr
Ökologische Bilanz -10.551.840 m3 CO2-Äquivalente/Jahr

Die Schlussfolgerung aus den alternativen Darstellungen einerseits der wirtschaftlichen Potentiale der Großen Rosin und andererseits des durch die forcierte Methanemission verursachten ökologischen Schadens ist, dass es ein grober wirtschaftlicher und politischer Fehler war, ein solch hervorragend melioriertes Gebiet, eine Kulturlandschaft mit großem wirtschaftlichem und touristischem Potentialen, zu zerstören und dabei noch ökologischen Schaden anzurichten.

Anstatt die Nutzung von 25.00 – 19.00 t CO2-Äquivalenten bzw. 275 – 205 GJ Energie oder über Biogas ein Methanproduktionspotential von 4.4 – 3.3 Mill m3 für produktive Zwecke zu gewinnen und Arbeitsplätze zu schaffen, wurde eine geringe CO2-Bindung von 3 – 9 t CO2-Äquivalenten– bedingt durch die Methangärung – der größte Teil des zuvor gebundenen Kohlenstoffs über Methan emittiert und durch die hohe Wirkung des Methans als Treibhausgas – total kompensiert und in einen ökologischer Schaden von – 32 bis -11 Mill. m3 CO2-Äquvivalente verkehrt. Der im Morast „versenkte“ Restkohlenstoff ist gering.

Die hier aufgeführte Schadensbilanz durch Renaturierung bezieht sin nur auf die Fläche der Großen Rosin. Hinzu kommen noch die Sekundärschäden: In erster Linie sind es mehr als
100 ha Wald, die der ganzjährigen Vernässung nicht widerstanden haben: Zuerst sind Birken und Eschen, dann aber auch die Schwarzerlen – insbesondere die Jahrzehnte alten Bäume- eingegangen. Die derzeit noch stehen gebliebenen „Strunke“ werden demnächst umfallen und verrotten. Einst aus gutem Grund angepflanzte Windschutzstreifen fallen der Sukzession anheim. Das Landschaftsbild verschlechtert sich zunehmend.

Absterbender Wald und Windschutzstreifen

Mit dem Verfall der Landschaft einhergehend ist eine zunehmende Verarmung der Flora und Fauna zu verzeichnen. Lediglich die Sumpfpflanzen (Binsen, Seggen, Röhricht usw.) haben sich ausgebreitet. Die sich auf den meliorierten Flächen herausgebildeten Ökosysteme und Biotope, durch Artenvielfalt und pulsierendem Leben ausgewiesene FFH-Gebiete, wurden verdrängt. Wo einst Lerchen in den Himmel stiegen, Kiebitze, Bachstelzen, Schnepfen, Weihe, Brachvögel und Kampfläufer, d.h. Bodenbrüter und Niederwild, Lebensraum hatten, wo es Wiesenvegetation und vereinzelt sogar Orchideen gab, ist jetzt alles weg, wie ausgestorben, Bodentiere (Maulwürfe) sind ersoffen, Wasservögel haben die Renaturierungsgebiete wenig angenommen. Insgesamt gesehen ist nichts da, was vorher nicht da war, aber vieles weg, was vorher da war: Insgesamt kein Gewinn als Flora-Fauna-Habitate!

Die ökologische Bilanz intakter Moore – gemessen in CO2-Äquivalenten ist bestenfalls klimaneutral bis stark negativ – und das gilt besonders auch für die „renaturierten“ Flächen. Der ökologische und ökonomische Vergleich zwischen Moorsaatgrasland und intakten Mooren (Ursprungsland) oder renaturierten Flächen weist schwerwiegende Vorteile für den Kulturgraslandbau auf Moorstandorten aus (siehe Tabelle2) und die relativ geringe Zersetzung von Moorsubstrat kann als kleiner Kollateralschaden in Kauf genommen werden:

Renaturierung (Wiedervernässung) führt zum

– Totalverlust an Wertschöpfung (LN), an produktiv nutzbarer Biomasse (Verfütterung,
Vergärung, Verbrennung und Rohstoffgewinnung),

– Verlust in der Sauerstoffproduktion zur Regeneration der Atmosphäre,

– Verlust in der aktiven Transpiration durch die Pflanzen(Wasserentzug und Erhöhung bzw.
Regulierung der Luftfeuchtigkeit in der Atmosphäre),

– Verlust des Nährstoffentzuges durch Erntegut (externer Mineralstoffkreislauf u.a.),
mit einhergehender Reduzierung der Eutrophierung der Randgewässer usw.,

– Belastung der Atmosphäre durch hohe Methanemission

– Zerstörung der Bodenstruktur -schwarze schmierige Flächen, wo nicht einmal Gras wächst!

– keine wirkliche/echte Moorbildung (Fehlen von Redoxpotentialen, um organisch
gebundenen C zu amorphem C zu reduzieren -> Akkumulation von Morast!
und nicht zuletzt zur

– Gefährdung der Gesundheit und Verminderung des Wohlbefindens (peinigende
Insekten) und zum

– Verlust des ästhetischen Landschaftsbildes (Gammelwiesen, tote Bäume und Morast),
Folge: eingeschränkter Lebensraum und geminderte Lebensqualität, Wertverfall von
Grundstücken und Immobilien.

Schlussfolgerung:

Die Renaturierung der Großen Rosin ist unter wissenschaftlich nicht nachvollziehbaren falschen Vorgaben, wie CO2-Emissionen von 24 t CO2-Äquivalenten und falschen Kostenkalkulationen, begründet und unter Zerstörung von großen Werten, der Infrastruktur, durchgeführt worden. Sie ist unter Anbetracht dessen ein einzigartiges Verlustgeschäft; sie war eine ökonomische und ökologische Fehlinvestition, eine Verschleuderung und zudem noch Schäden verursachende Verwendung von etwa 1 Mill. Euro Steuergeldern aus EU- und Landesmitteln!

Aus diesem objektiven Sachverhalten ergibt sich die Schlussfolgerung, dass es aus Gründen des Klimaschutzes keine Berechtigung gibt, auch nur einen ha meliorierten Grünlands wieder zu vernässen und damit in nutzloses Unland mit einer hohen klimaschädigenden Methanemission zu verwandeln.

**********

Literatur

(1) http://www.eike-klima-energie.eu/climategate-anzeige/renaturierung-von-mooren-eine-fiktion-mit-verheerenden-folgen/
(2) http://www.eike-klima-energie.eu/climategate-anzeige/die-oekologischen-leistungen-des-kulturpflanzenbaus-und-der-renaturierungsflaechen/
Dr. Arthur Chudy

Lebensraum Peenetal e.V.

achudy@aol.com




Environ­ment Florida führt Wähler bzgl. Kosten für Erneuer­bare in den Irre

Auf dem Menüpunkt „100% Erneuerbare Energie“ auf der Website von Environment Florida argumentiert die Gruppe mit einem ökonomischen Argument für mehr erneuerbare Energie: „In vielen [US-]Staaten ist Windenergie inzwischen billiger als Gas oder Kohle“. Damit soll eindeutig impliziert werden, dass wenn die Menschen gelegentlich diesen Passus lesen sich nicht die Zeit nehmen, die Behauptung näher zu prüfen, dass dieser Umstand auch in Florida zu Buche schlagen würde. Die Behauptung der Gruppe beruht jedoch weder auf Fakten noch ist sie auf Florida anwendbar.

Erstens ist Windenergie ganz allgemein viel teurer als Energie aus Kohle oder Erdgas. Aus genau diesem Grunde setzen sich die Windenergie-Aktivisten so vehement dafür ein, die Subventionen der Steuerzahler abzustauben und dass per Gesetz verordnet wird, dass ein bestimmter Prozentsatz der Stromerzeugung in jedem Staat aus erneuerbaren Quellen stammt. Falls Windenergie wirklich billiger wäre als Energie aus Kohle und Erdgas – oder zumindest im Kosten-Wettbewerb mithalten könnte – wären diese Subventionen und Vorschriften nicht erforderlich. Falls und wenn Windenergie billiger als Kohle oder Erdgas ist, bräuchte die Windenergie-Industrie nicht die Regierung, um die Verbraucher dazu zu bringen oder zu zwingen, Windenergie zu kaufen. Ein guter Vergleich und eine Dokumentation zwischen Wind- und Solarenergie einerseits sowie Kohle und Erdgas andererseits gibt es hier bei der links der Mitte stehenden Brookings Institution.

Zweitens ist Windenergie gerade in Florida besonders unökonomisch. Das Potential von Windenergie variiert erheblich in den USA. Die besten Orte für die Erzeugung von Windenergie befinden sich in Kammlagen von Mittelgebirgen und in großen Hochebenen, wo es häufig windig ist, stetig und ziemlich stark. Jeder Bewohner von Florida weiß, dass genau diese Bedingungen in Florida nicht erfüllt sind. Von der Energy Information Agency EIA gibt es eine aussagekräftige Karte des Potentials von Windenergie. Darin zeigt sich Florida als einer der Staaten, in denen es am schwierigsten und unökonomischsten ist, Windenergie zu erzeugen. Damit ist die Aussage von Environment Florida an die Bewohner des Staates, dass „Windenergie in vielen Staaten inzwischen billiger als als Gas oder Kohle“ vollkommen irrelevant für diesen US-Staat. Noch schlimmer: Viele Bewohner Floridas werden zu der irrigen Ansicht gebracht, dass wenn Windenergie anderswo billig ist, dieses auch in Florida so ist.

Drittens, Environment Florida liefert keine angemessene Dokumentation zur Untermauerung seiner Behauptung, dass Windenergie in einigen Staaten billiger ist als Kohle oder Erdgas. Stattdessen wird nur die Hypothese aufgestellt, verbunden mit einem Link zu einem Online-Artikel im The Atlantik. In diesem Artikel wird jedoch lediglich behauptet, dass „Windenergie in vielen Teilen der Welt wettbewerbsfähig ist mit fossile Treibstoffe verbrennenden Kraftwerken“. Dies ist weit entfernt von der Behauptung, dass Windenergie in vielen Staaten billiger ist als Kohle und Erdgas. Beispielsweise ist „wettbewerbsfähig“ nicht das Gleiche wie „billiger“. Wettbewerbsfähig heißt nichts weiter, als dass nach subjektiver Meinung eines Einzelnen keinen großen Preisunterschied zwischen beiden gibt. Ebenso ist der Terminus „in vielen Teilen der Welt“ nicht das Gleiche wie „in vielen Staaten“. Dies gilt besonders vor dem Hintergrund, dass die reichlichen Ressourcen an Kohle und Erdgas in den USA dafür sorgen, dass die Strompreise in den USA viel billiger sind als in den meisten anderen Ländern. In Dänemark und Deutschland beispielsweise liegen die Strompreise drei mal so hoch wie in den USA – beide Nationen haben konzertierte Maßnahmen ergriffen, das meiste ihres Stromes mit Windenergie zu erzeugen (hier).

Viertens, selbst wenn Windenergie in einigen Staaten wirklich billiger wäre als Kohle oder Erdgas, so erzeugt doch kein Staat die gesamte – oder auch nur den größten Teil – Energie mittels Windturbinen. Windenergie mag wettbewerbsfähig sein in einigen wenigen Staaten, in denen die Bedingungen ideal zur Erzeugung von Windenergie sind. Allerdings wird der Versuch, zu 100% Energie durch Wind zu erzeugen – oder auch nur annähernd 100% – selbst in jenen Staaten zu viel höheren Windenergiepreisen führen, weil die Windkraft-Unternehmen nicht mehr in der Lage sein werden, hinsichtlich der wenigen Stellen mit idealen Windenergie-Bedingungen Rosinenpickerei zu betreiben.

Fünftens, Behauptungen, dass Windenergie von den Kosten her mit Kohle und Erdgas wettbewerbsmäßig mithalten kann, berücksichtigen die retail cost von Windenergie erst nach Erhalt der substantiellen und unverhältnismäßigen Subventionen (siehe hier) im Vergleich zu Kohle und Erdgas. In Wirklichkeit zahlen die Verbraucher den Preis für Windenergie direkt mit ihren Stromrechnungen plus die Kosten der viel höheren Subventionen für Windenergie im Gestalt von Steuern. Der retail price von Windenergie gleicht nur zu einem kleinen Teil die Kosten der Windenergie aus, welche die Verbraucher zahlen, wobei die unverhältnismäßig hohen Steuersubventionen einen weiteren wichtigen Kostenfaktor darstellen.

Sechstens, Befürworter von Windenergie versuchen oftmals, die Erzeugungskosten allein mit den Erzeugungskosten von Kohle und Erdgas zu vergleichen. Allerdings sind Ausrüstung und Errichtung von Windturbinen pro Einheit erzeugter Energie viel höher als die gleichen Kosten bei Kohle- und Gaskraftwerken. Indem die viel höheren Ausrüstungs- und Installationskosten von Windturbinen ignoriert werden und man einfach nur über die Kosten der Energieerzeugung nach dem Aufbau redet, versuchen die Windkraft-Apologeten, die Aufmerksamkeit von den tatsächlichen Gesamtkosten abzulenken.

Siebentens, Kohle- und Gaskraftwerke können fast überall gebaut werden. Sie können in der Nähe von Städten gebaut werden, welche die meiste Energie verbrauchen, und erfordern auch nicht oder nur in sehr geringem Umfang den Bau von Überlandleitungen. Windenergie dagegen wird selten in großer, ökonomischer Menge in der Nähe von Städten erzeugt. In Kammlagen oder Hochebenen liegen nur sehr wenige große Städte. Dies bedeutet, dass für die meisten neuen Windenergie-Projekte die Konstruktion langer und sehr teurer Überlandleitungen erforderlich ist, um den Strom dahin zu leiten, wo er gebraucht wird. So werden für die 780 Meilen lange Rock Island Clean Line, die gegenwärtig durch die Staaten Iowa, Illinois und Indiana gezogen wird, 3 Milliarden Dollar veranschlagt, oder fast 4 Millionen Dollar pro Meile (hier). Windenergie-Aktivisten beziehen die sehr hohen Kosten für den Bau von Überlandleitungen nur sehr selten ein, wenn sie ihre Kostenvergleiche anstellen.

Achtens, Windenergie ist wechselhaft und benötigt konventionelle Energie, um bei Bedarf jederzeit die Nachfrage decken zu können, wenn der Wind entweder gar nicht oder nicht mit der richtigen Geschwindigkeit weht. Damit müsse konventionelle Kraftwerke am Laufen gehalten werden, ohne jedoch Strom zu liefern, wenn Wind weht. Ebenso ist es erforderlich, diese Kraftwerke ständig hoch und herunter zu fahren, um der Veränderlichkeit der Windgeschwindigkeit Rechnung zu tragen. Jeder einzelne dieser Faktoren belastet die konventionelle Energieerzeugung, was diese Energie deutlich teurer macht als es sonst der Fall wäre. Wichtig hierbei wäre bei einem Vergleich der Kosten von Windenergie und konventioneller Energie, diese Zusatzkosten der konventionellen Energie herauszurechnen, und man müsste sie den Kosten der Windenergie hinzufügen.

Alles in allem, Environment Florida suggeriert, dass es in einem Artikel im The Atlantic heißt, dass Windenergie in einigen Staaten billiger ist als Energie aus Kohle und Erdgas. Tatsächlich findet sich in dem Artikel aber keine solche Behauptung. Und selbst wenn The Atlantic eine solche Behauptung aufgestellt hätte, existieren die Umstände zum Erreichen einer Kostengleichheit von Windenergie mit Kohle und Gas einfach nicht. Im besonderen ist das der Fall bei vielen versteckten Kosten der Windenergie, die nicht auf den Rechnungen für Verbraucher auftauchen und auch nicht in den Beteuerungen der Windenergie-Apologeten. Stattdessen bestätigen seriöse Kostenvergleiche, wie sie von der Brookings Institution veröffentlicht werden, dass Windenergie erheblich teurer bleibt als fossile Energie. Wäre dem nicht so, würden Windkraft-Befürworter den Subventionen der Steuerzahler und gesetzliche Vorschriften für die Verbraucher, Windenergie zu kaufen, nicht so viel Bedeutung beimessen.

Glücklicherweise für die Floridaner hält die von Erdgas dominierte Energieerzeugung in Florida die Preise niedrig und verursacht nur geringe Herausforderungen für die Umwelt. Erdgas emittiert nur einen Bruchteil der traditionellen Verschmutzer der Kohleenergie und nur halb so viel Kohlendioxid. Als Folge hiervon und trotz des dem subtropischen Klima geschuldeten Gebrauchs von Air Conditioners werden die Pro-Person-Emissionen der Bewohner Floridas nur noch von 11 anderen Staaten unterboten (hier). Außerdem vermeidet der Erdgasverbrauch Floridas den gewaltigen Landverbrauch, den umweltlich verheerenden Abbau ,seltener Erden‘ für den Bau von Windturbinen, und die ungeheuren Todesraten von Vögeln und Fledermäusen durch die Turbinen.

Environment Florida mag den Bewohnern Floridas die Segnungen von Windenergie nahebringen, aber die Fakten sagen eindeutig, dass sie mit ökonomisch giftigem Stoff handeln.

Link: http://www.cfact.org/2018/05/26/environment-florida-misleads-voters-on-renewable-energy-costs/
Übersetzt von Chris Frey EIKE




Schlechte Nachrichten für Fans grüner Energie: Öl- und Gas-Boom in den USA

Aber die Affenliebe der Medien für Tesla wird überschattet durch einen Vorgang, der viel wichtiger ist als die Anzahl der Elektrofahrzeuge, Solarpaneele und Batterien, welche Tesla produziert (oder auch nicht).

Zwei Tage vor Verkündung der Tesla-Zahlen vom ersten Quartal hat die Energy Information Administration EIA darüber informiert, dass die US-Produktion sowohl von Öl als auch von Erdgas auf ein rekordhohes Niveau gestiegen ist.

Im Februar erreichte die Ölerzeugung 10,2 Millionen Barrel pro Tag und die Erdgaserzeugung 87,6 Milliarden Kubikfuß pro Tag. Die Tatsache, dass die Öl- und Gasunternehmen in den USA derartig ungeheure Mengen Energie erzeugen – und den Verbrauchern damit Milliarden Dollar Ersparnis bringen – diese Tatsache sollte Schlagzeilen machen!

Mein Kollege am Manhattan Institute Mark P. Mills hat gesagt, dass die Schiefer-Revolution die USA zu einer Energie-Supermacht gemacht hat. Die Kombination von horizontalem Bohren, hydraulischem Brechen und anderer Technologien hat zur „schnellsten und größten Zunahme der Energieversorgung der Welt jemals in der Geschichte geführt.

Wie stark ist diese Zunahme? Während des vorigen Jahrzehnts machte die Zunahme – und ich betone, nur die Zunahme – der Öl- und Gaserzeugung in den USA sieben mal die Gesamt-Energieerzeugung jeder Windturbine und jedes Solarprojektes in den USA aus.

Klimawandel-Aktivisten lieben es zu behaupten, dass erneuerbare Energie die gesamte Ökonomie versorgen kann und dass wir die „Mathematik betreiben sollen“. In Bezug auf die Mathematik kann ich dem nur vorbehaltlos zustimmen. Im Jahre 2008 betrug die Ölerzeugung in den USA etwa 5,2 Millionen Barrel pro Tag. Heute sind es etwa 10,2 Millionen Barrel pro Tag. Die heimische Gaserzeugung lag im Jahre 2008 bei 55,1 Milliarden Kubikfuß pro Tag, heute sind es etwa 87,6 Milliarden Kubikfuß pro Tag.

Das ist eine Zunahme von etwa 32,5 Milliarden Kubikfuß pro Tag, äquivalent zu etwa 5,5 Millionen Barrel Öl pro Tag. Folglich hat der Öl- und Gas-Ausstoß der USA während des vorigen Jahrzehnts eine Steigerung von 10,5 Millionen Barrel Öl-Äquivalent pro Tag hingelegt. Vergleichen wir das jetzt mit der heimischen Erzeugung durch Wind und Solar, welche seit dem Jahr 2008 jeweils um 4800 Prozent bzw. 450 Prozent zugenommen hat. Diese Prozentzahlen klingen eindrucksvoll, doch ist die gesamte Energieerzeugung mittels dieser Quellen sehr klein im Vergleich zu Öl und Gas.

[Hier steht diese Mathematik]

Die Mathematik ergibt, dass allein die Zunahme der Energieerzeugung durch Öl und Gas etwa sieben mal den Energieausstoß aller heimischen Solar- und Windprojekte ausmacht.

Diese Flut der Erzeugung aus Kohlenwasserstoff hat zu gewaltigen Vorteilen für die US-Wirtschaft geführt. Während des letzten halben Jahrzehnts haben heimische und ausländische Unternehmen etwa 160 Milliarden Dollar in neue Chemiefabriken in den USA investiert. Eine Studie der IHS aus dem Jahr 2016 kam zu dem Ergebnis, dass niedrigere Erdgaspreise etwa 1,4 Millionen Arbeitsplätze geschaffen haben und die verfügbaren Einnahmen um etwa 156 Millionen Dollar haben steigen lassen.

Diese Zugewinne der realen Welt gehen unter in dem niemals endenden Hype um Tesla und Musk, welche in einer Mitteilung vom 2. Mai von einem „Mega-Aufladegerät mit Solarbatterien“ gesprochen und behauptet hat, dass die Fahrer von Tesla-Autos sich „ganz beruhigt mit dem Auto zusammentun“ können.

Die Pointe hier liegt auf der Hand: Man quatsche über Mega-Aufladegeräte und fängt damit die Massen. Aber die folgenreichste Story in Amerika kommt nicht von Tesla oder anderen „grünen“ Energieunternehmen. Sie kommt aus dem Öl- und Gasgeschäft.

Robert Bryce is a senior fellow at the Manhattan Institute.
Link: http://icecap.us/index.php/go/political-climate vom 23. Mai 2018
Übersetzt von Chris Frey EIKE