Energiemangel-Überleben für Dummies: So einfach kann es sein, ein Windrad zu bauen

Nicht jeder hat jedoch das Geld, zusätzlich zu den Brot- und Butter-Rationsdosen auch noch für 14 Tage Elektroenergie bevorraten zu können. Und nicht jeder kann von Fördermitteln partizipieren, wie die kreativen Windradschnitzer in Berlin-Tempelhof und von der Berliner Uni: Neuer Hoch-Technologie-Trend: Windräder schnitzen gegen Afrikas Energiearmut

Doch auch solchen, ärmeren Schluckern mit nur minimalem Platz im Garten oder auf der Dachterrasse, kann gegen künftige – zeitweise – Energiearmut geholfen werden, wenn man mit etwas kleineren Dimension zufrieden ist (die 12 m hohen, Nachhaltigkeits-Riesen-Windräder gehen ja nach Afrika) und etwas engagiert selbst mit anpackt.

Eine rührige Firma vertreibt Bauanleitungen, die wirklich jeder verstehen sollte und die vor allem auch mit in vielen Rumpelkellern oder Sperrmüllsammlungen vorhandenen, technischen Bauteilen wie alte Fahrraddynamos oder Auto-Anlasser auskommen.

Shop Einfälle statt Abfälle Heft 1: Windkraft – ganz einfach!
"2 Bauanleitungen für kleine Windräder aus Müll, genaue Erklärung, wie Strom ""funktioniert"" usw."

Bild oben rechts: Heft 1. Quelle: Shop Einfälle statt Abfälle

Ein paar Demoproben sollen zeigen, wie einfach damit ein Windrad aufgebaut werden kann und dass man dafür weder eine Firma Siemens, noch zum selber schnitzen das Wissen der technischen Uni Berlin benötigt.

Windrad-Technik, endlich verständlich erklärt

Das folgende Bild aus dem Heft 1 einer Windrad-Bauanleitung zeigt die komplette Elektrotechnik eines modernen high-light-Windrades für den 2-Wochen-Rations-Einsatz. Dabei haben die Autoren an wirklich alles gedacht und sogar das vom Innenminister extra angemahnte Radio hinzu gefügt, damit während solcher, kommender Energie-Armuts-Krisen-Zeiten, die wohltuenden, beruhigenden Stimmen aus dem Berliner Kanzleramt(-Bunker) gehört werden können.

Bild 2. Quelle: Heft 1: Windkraft – ganz einfach!

Aus irgend einem Grund haben innovative Bürger-Windräder inzwischen selbst geschnitzte Windflügel. Das muss wohl mit dem Öko-Traum zusammen hängen, wonach nur mit dem Pflug bearbeitete Äcker und Windräder mit selbst geschnitzten Flügeln den Nachhaltigkeitsanspruch wirklich erfüllen.

Jeden falls wurde in der Anleitung auch daran gedacht und eine vorbildlich, akribische Beschreibung zu gefügt. Jeder kann man unbesehen in einen Baumarkt gehen und sich die benötigten Bretter heraussuchen und zu sägen lassen.

Bild 3. Quelle: Heft 1: Windkraft – ganz einfach!

Allerdings, der Bau des Generators mit zwingender Einhaltung aller EU-Konformitäts- und Produkthaftungs-relevanter Vorschriften hat bisher bestimmt viele von einem Selbstbau abgehalten. Doch auch das ist verblüffend anschaulich und nicht ohne etwas Praxiswitz erklärt. Es ist zu beachten: Der hochwertige Generator stammt von einem alten Fahrrad, wie sie noch häufig in Kellern oder Trödelmärkten herum liegen. Sogar wer den Generator selbst wickeln will, wie es die Bewohner in Afrika anscheinend gerne und erfolgreich machen [3] findet darin die erforderliche Beschreibung.

Bild 4 Windradgenerator-Montage. Quelle: Heft 1: Windkraft – ganz einfach!

Für Personen, welche trotz dieser Anleitungs-Präzision immer noch nicht zurechtkommen, wäre der Vorschlag, damit in eines der überall aufblühenden Repair-Cafes zu gehen. Den dort mit Begeisterung schraubenden und lötenden Technik-Rentnern geht beim Anblick von Beschreibung und Material bestimmt eine an die „Radiopraktiker-Basteljugend“ erinnernde „technische Erregung durchs Gebein“ und sie machen es dadurch Testosteron-gedopt doppelt so schnell und mit enthusiastischer Begeisterung.

Der Autor hofft, nach den vielen, vorwiegend theoretischen Diskussionen um Klimawandel und EEG damit auch einen sinnvollen Beitrag zum realen Überleben der nach Frau Hendricks [3] „… konsequenten und gut geplanten … „ Energiewende gebracht zu haben.
Sofern beim ersten, größeren Blackout kein erlösender, lokaler Wind wehen sollte, ist eine Erweiterung (technical extention for low wind-Energie times) mit zugeschaltetem Fahrrad-Tretantrieb denkbar. Das fehlt noch in den Anleitungs-Heften. Man merkt, das EEG-Zubehör ist vorhanden, aber trotz der „konsequenten und guten Planung“ noch nicht perfekt. Da sollte Frau Hendricks noch ein paar Forschungsaufträge vergeben.

Anmerkung: Die Idee zu diesem Artikel kam durch den Blogeintrag eines EIKE-Lesers.

Quellen

[1] Shop www.einfaelle-statt-abfaelle.de

[2] Shop www.einfaelle-statt-abfaelle.de, Heft 1: Windkraft – ganz einfach!
"2 Bauanleitungen für kleine Windräder aus Müll, genaue Erklärung, wie Strom ""funktioniert"" usw."

[3] Neuer Hoch-Technologie-Trend: Windräder schnitzen gegen Afrikas Energiearmut
http://www.eike-klima-energie.eu/news-cache/neuer-hoch-technologie-trend-windraeder-schnitzen-gegen-afrikas-energiearmut/

[3] EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt[1]
http://www.eike-klima-energie.eu/news-cache/frau-hendricks-glaubt-im-klimawahn-klimapaepstin-geworden-zu-sein-und-den-irrglauben-ihrer-buerger-verdammen-zu-duerfen-zu-ihrem-gastbeitrag-weit-verbreiteter-irrglaube-im-handelsblatt1/




Warum Albedo die falsche Maßzahl der Reflektivität für die Modellierung des Klimas ist

Häufig sieht man den Hinweis auf die nominelle 30%-Albedo der Erde hinsichtlich des Energiehaushaltes und der vermeintlichen anthropogenen Erwärmung. Allerdings listet das CRC Handbook of Chemistry and Physics in den jüngsten Ausgaben einen Wert von 36,7%. Die Albedo ist eine Maßzahl der scheinbaren Reflektivität des sichtbaren Lichtes von Himmelskörpern wie Mond, Mars und Asteroiden. Dies funktioniert gut bei der Abschätzung des Typs der Oberflächen-Beschaffenheit und der Partikelgröße von Objekten, die nichts als blanken Fels und Schutt aufweisen. Um die Albedo über einer beobachteten Atmosphäre, der Sonne, einem vermessenen Körper angemessen zu messen, sollten sich das Objekt und der Beobachter (Erdlinge!) angemessen abgleichen. Die Albedo der Erde wird geschätzt mittels Messung der Albedo des Mondes (12%) bei Vollmond und der nachfolgenden Messung des Erdscheins (Earthshine) bei Neumond. Diese Messungen erfassen zumeist die diffuse Reflektion von Vegetation, Erdboden, Schutt und vor allem Wolken. Allerdings sind darunter auch einige sekundäre spiegelähnliche Reflektionen von glatten Objekten (wie Felsen, vor allem aber Wasserwellen), deren Oberflächen so orientiert sind, dass die einfallende Strahlung in Richtung Mond reflektiert wird.

Allerdings wird der beschienene Teil der Erde immer etwas unterschiedlich sein sowie variierend mit der Zeit und der Messstellen. Dies trägt wahrscheinlich zur beobachteten Variation der gesessenen Albedo mit der Zeit bei. Weil sich der Mond nicht in der Ebene der Ekliptik befindet, erfolgen jedwede Messungen des Erdscheins mit der Zeit über verschiedene Blickwinkel und unterschiedliche Regionen der Erdoberfläche zusammen mit Änderungen aufgrund von Wetter und Jahreszeit. Das heißt, es ist zu erwarten, dass die Albedo, wie sie aus Messungen des Erdscheins geschätzt wird, aus geometrischen Gründen deutlich variiert. Diese Messungen bieten eine scheinbare Reflektivität an, integriert über eine gesamte Hemisphäre der Erde.

Ich sage „scheinbare“ Reflektivität, weil nicht alles die Erde erreichende Licht zurück zur Sonne reflektiert wird. Die Albedo ist im besten Falle eine untere Grenze des von der Erde reflektierten Lichtes. Sie zu verwenden wäre nur dann angemessen, falls die Erde vollständig von Wolken bedeckt wäre wie die Venus (Albedo = 65%) oder vollständig bedeckt mit Schutt wie der Mars (Albedo = 15%) ohne Wasser oder Vegetation.

Außerdem ist die Albedo eine Augenblicksmessung. Weil sich Vegetation und Wolken mit den Jahreszeiten ändern, muss eine weitere, kompliziertere Korrektur angebracht werden, damit man trotz dieser Effekte ein Jahresmittel ableiten kann.

Zur Illustration (oder vielleicht sollte ich sagen Erhellung) betrachte man, wie die Lage wäre, falls die Erde eine Hollywood-Wasserwelt wäre (à la Kevin Kostner). Man nehme mal an, dass es nur einen Ozean frei von Sedimenten gebe, keine Wolken und leichte Winde, was Schaumkronen minimiert. Das Wasser reflektiert stark spiegelähnlich (wie jeder Fischer oder Seemann nur zu gut weiß) im Gegensatz zu der starken diffusen Reflektion der meisten anderen Dinge auf der Erde.

Spiegelnde Reflektion wird quantitativ berechnet mit der Fresnel’schen Reflektions-Gleichung, in die der Index der Refraktion und der Auslöschungs-Koeffizient eingeht (manchmal auch Absorptions-Koeffizient genannt), was den Complex Refractive Index CRI konstituiert. Der Index der Refraktion, der den meisten Lesern vermutlich bekannt ist, wird einfach definiert als das Verhältnis zwischen der Lichtgeschwindigkeit in einem Vakuum und der Lichtgeschwindigkeit in der vermessenen Materie. Der Auslöschungs-Koeffizient für Wasser variiert mit der Wellenlänge – er ist größer für rot und Infrarot als am anderen Ende des Spektrums – aber wir können dies als vernachlässigbar ansehen für die folgende Illustration. Folglich hat der CRI für Wasser eine imaginäre Komponente, die man mit Null ansetzen kann. Dies vereinfacht die Berechnungen. Der CRI variiert mit Temperatur, Salzgehalt und der Wellenlänge des einfallenden Lichtes. Ich habe eine Approximation verwendet (n = 1,34) für typisches Meerwasser bei einer Wellenlänge von 550 nm. Dies ist der Spitzenwert der Emission von Sonnenlicht.

Zur Erinnerung, der Winkel der Reflektion ist gleich dem Einfallswinkel, wobei der Einfallswinkel gemessen wird von der Normalen der Oberfläche [surface normal]. Nehmen wir an, dass wir auf unsere Wasserwelt schauen aus einem geostationären Orbit und dass diese Wasserwelt eine perfekte Sphäre ist anstatt des an den Polen abgeflachten Sphäroids (Geoid), was die reale Erde ist. Das Sonnenlicht kommt in Strahlen, die auf diese Distanz parallel zueinander sind. Ein Strahl, der normal zur Wasseroberfläche auftrifft, hat den Einfallswinkel 0°. Alle anderen Strahlen, die auf die Oberfläche der beleuchteten Hemisphäre treffen, haben größere Einfallswinkel, bis hin zu 90° an den Rändern. Neunzig Grad sind grazing the surface; es herrscht eine Reflektivität von 100%, und der Charakter des Lichtes ist spektroskopisch der gleiche wie von der Quelle (der Sonne).

Die folgende Graphik zeigt den Reflexionsgrad für alle Einfallswinkel auf Meerwasser. Man beachte, dass jenseits von etwa 40° der Reflexionsgrad merklich zu steigen beginnt. Bei 60° steigt der Reflexionsgrad scharf, und über 79° liegt er über der nominellen Albedo (30%), die gemeiniglich in Diskussionen über den Energiehaushalt der globalen Erwärmung Eingang findet.

Abbildung 1: Gesamt-Reflektivität von Meerwasser

Würde man von der Position des geostationären Satelliten herunter schauen, würde man einen Lichtfleck sehen, der vom etwa in der Normalen einfallenden Bündel von Strahlen von der Wasseroberfläche reflektiert wird. Das wäre ein Reflexionsgrad von 2%. Alles andere würde schwarz aussehen mit Ausnahme einiger zufälliger weißer Schaumkronen, die blitzartig etwas Licht reflektieren. Dies bedeutet jedoch nicht, dass das gesamte Licht absorbiert wird! Die orbitale Position wäre einfach falsch für die Messung des in den Weltraum reflektierten Lichtes weg von der Sonne. Die in größerer Entfernung vom Normal-Strahl einfallenden Strahlen werden einen größeren Einfallswinkel haben infolge der Krümmung der Wasserwelt. Folglich werden sie eine größere Prozentzahl des Reflexionsgrades aufweisen. Die Bedeutung hiervon ist, dass der Reflexionsgrad mit zunehmendem Einfallswinkel ebenfalls zunimmt. Die Absorption und damit die Erwärmung nimmt proportional dazu ab.

Die Fresnel’sche Gleichung lässt sich in ihrer Urform nicht leicht integrieren. Ein Polynom 6. Ordnung ergibt eine ziemlich gute Annäherung, was es mir erlauben würde, sie irgendwie mechanistisch zu integrieren und die Fläche unter der Kurve zu erhalten. Allerdings haben einige Leser Bedenken hinsichtlich von Polynomen höherer Ordnung zur Anpassung von Kurven. Ich glaube, dass dies etwas zu tun hat mit einer Phobie über hin und her schwingende Elefantenrüssel. Darum habe ich den einfachen Weg gewählt und die Gesamtfläche der Graphik auf Papier gewichtet. Danach habe ich die Fläche unter der Kurve ausgeschnitten und gewichtet. Das Verhältnis der beiden Wichtungen ergibt die Proportion der beiden Flächen.

Die Fläche unter Reflexionsgrad-Kurve für Meerwasser (Abbildung 1 oben) macht etwa 9% aus. Weil sich die Sonne mit konstanter Winkelgeschwindigkeit bewegt, ist der Wert des über die Zeit gemittelte Reflexionsgrades eines Punktes auf der Oberfläche der Wasserwelt derjenige für einen Zeitraum von 6 Stunden. Das bedeutet, dass jede einzelne Stelle auf der Oberfläche des Ozeans mit Beginn zu Sonnenaufgang am Äquator einen initialen Sofort-Reflexionsgrad von 100% aufweisen würde. Mit der Rotation des Planeten unter der Sonne wird die Prozentzahl des von der Stelle reflektierten Sonnenlichtes bis zu einem Minimum von rund 2% beim lokalen Sonnenhöchststand an dieser Stelle abnehmen. Danach kehrt sich der Prozess um bis Sonnenuntergang, bis an der Stelle erneut der Maximum-Reflexionsgrad erreicht wird. Die Gesamtmenge des reflektierten Lichtes an diesem Punkt über einen nominellen 12-stündigen Sonnenschein wird etwa 18% des einfallenden Lichtes ausmachen. Dies ist mehr als der zweifache Wert, der für den diffusen Reflexionsgrad für Wasser gelistet ist, und er liegt innerhalb der Bandbreite der Werte für Vegetation.

Außerdem sollte man nicht vergessen, dass an einem Punkt der Schattengrenze bei 60° Breite (N & S) eine Abnahme der Reflektivität bis zum lokalen Sonnenhöchststand erfolgen würde, genau wie am Äquator, aber sie wird niemals unter sechs Prozent sinken! Die Minimum-Reflektivität nimmt mit zunehmender Breite zu, was zu einem größeren mittleren Reflexionsgrad führt.

Dies beschreibt jedoch die Lage nicht angemessen, weil die Oberflächengebiete mit der größten Reflektivität ausgedehnter sind als die Gebiete mit niedrigster Reflektivität. Weil die Erde rotiert, ist es von Bedeutung, wo sich Wasser befindet relativ zu Festland und Wolken. Während ein mittlerer Reflektivitäts-Wert nützlich sein könnte für eine initiale Approximation erster Ordnung, muss die Variation mit der Zeit/dem Ort für eine akkurate Modellierung einbezogen werden.

Ich habe auch eine diskrete Aufsummierung der Kegelstümpfe [frustrums, ?] einer Hemisphäre durchgeführt (Af = 2πR DX). Multipliziert man die (auf ein Einheitsgebiet für die Hemisphäre) normalisierten Kegelstumpf-Gebiete mit der mittleren Reflektivität für den Einfallswinkel für jeden Kegelstumpf, ergibt sich die nach Gebiet gewichtete Reflektivität für jeden Kegelstumpf. Die Aufsummierung derselben ergibt eine gebietsgewichtete mittlere Reflektivität von etwa 18%. Dies ist der momentane gebietsgemittelte Reflexionsgrad über eine Hemisphäre. Dies ist fast eine Größenordnung größer als das von einer kleinen Stelle der Ozeanoberfläche reflektierte Sonnenlicht direkt unter der Mittagssonne während eines Äquinoktiums. Es ist weit größer als die offensichtliche Albedo (≪2%) unserer hypothetischen Wasserwelt!

Selbst auch der realen Erde sind diese Spiegel-Reflektions-Effekte bedeutsam, weil etwa 71% der Oberfläche mit Wasser bedeckt ist, von der die NASA behauptet, dass sie einen Reflexionsgrad von etwa sechs Prozent aufweist. Das bedeutet, dass die tatsächliche Gesamt-Reflektivität der Erde größer sein muss als die Schätzung der diffusen Reflektivität, die sich aus Erdschein-Albedo-Messungen ergibt (siehe „Terrestrische Albedo”).

Jetzt werden die Dinge komplizierter, fügen wir doch jetzt Festland und Wolken hinzu, und die verhalten sich anders als Wasser. Nackter Boden und Vegetation erzeugen eine Kombination von Spiegel- und diffuser Reflektion, die am besten beschrieben wird durch die Bidirectional Reflectance Distribution Function (BRDF). Dies ist eine mathematische Beschreibung, wie das Licht gestreut wird mit den beiden Effekten von diffuser und Spiegel-Reflektion bei variierenden Einfallswinkeln. Es gibt immer einen starken Vorwärts-Flügel [a strong forward lobe, ?] des Reflexionsgrades (anisotropy) für schräge Beleuchtung, sogar für Schnee. Ursache hierfür sind Schneeflocken (und Blätter von Pflanzen), die flach und plan sind und dazu tendieren, parallel [sub-parallel] zur Erdoberfläche angeordnet zu sein. Folglich werden Messungen der Albedo direkt darüber zu Werten führen, die niedriger sind als der wahre Gesamt-Reflexionsgrad, den man durch Integration der BRDF über eine ganze Hemisphäre erhalten würde.

Es wurde mit der Modellierung von CERES-Satelliten-Messungen gearbeitet; allerdings zeigen die folgenden Illustrationen, dass sie es nicht hinbekommen haben [they don’t have it right]. Die Illustration rechts in Abbildung 2 zeigt eine Hemisphäre mit einem großen Festlands-Anteil. Die Ozeane erscheinen dunkler als mit Vegetation bedecktes Festland (Albedo 8% bis 18%). Tatsächlich scheint ein Wert von 6% für den offenen Ozean total unangemessen. Daher scheint diese Illustration primär der diffuse Reflexionsgrad der Wasser-Albedo zu sein und nicht der Gesamt-Reflektivität. Weil der Wert so niedrig ist, wurde offensichtlich nicht berücksichtigt, wie sich der Spiegel-Reflexionsgrad mit der Zeit und der Position ändert. Das heißt, dies ist ein Mittel des Spiegel-Reflexionsgrades des kleinen Einfallswinkels (≈2%) des direkten Sonnenlichtes, wie es von Satelliten erfasst wird; Schaumkronen, Reflexionsgrad vom Grund flacher Gewässer, diffuser Reflexionsgrad schwebender Partikel nahe der Wasseroberfläche sowie Streulicht vom Himmel, das aus allen Winkeln einfällt.

Abbildung 2: Terra/CERES-Ansicht der Welt bei der ausgestrahlten langwelligen Strahlung (links) und des reflektierten Sonnenlichtes (rechts). Bild: NASA.

Vegetation verhält sich anders als nichtorganische Reflektoren. Erstens, Blätter tendieren dazu, flach zu sein, mit einem wachsartigen Überzug, der Spiegelreflexion begünstigt. Weiter, während Pflanzen infolge der Absorption blauen und roten Lichtes grün aussehen (sie sind auch hoch reflektiv im Nahen Infrarot), trägt nicht das gesamte einfallende absorbierte Licht zu Erwärmung bei. Das Chlorophyll in den Pflanzen konvertiert einfallendes Licht in Kohlenhydrate und resultiert nicht in Erwärmung. Die Schätzungen der Effizienz, mit der diese Konversion vor sich geht, variieren mit den Pflanzen und den Wachstumsbedingungen. Allerdings wird allgemein angenommen, dass sich dies im kleinen einstelligen Prozentbereich abspielt. Folglich sollte der effektive Reflexionsgrad des sichtbaren Lichtes nach oben adjustiert werden, um der fehlenden Erwärmung Rechnung zu tragen. Phytoplankton und Algen im Ozean fangen genauso Sonnenlicht ein und konvertieren es in Biomasse, anstatt das Wasser zu erwärmen bis zu einem Grad, wie eine Schätzung erster Ordnung der Reflektivität allein nahelegen würde.

Normaler trockener Sand kann einen diffusen Reflexionsgrad bis zu 45% besitzen! Schotter, Sand und Erde haben typischerweise einen diffusen Reflexionsgrad. Durch Landwirtschaft freigelegte Erde kann von sehr hellem Gelb, kalziumreichen Wüstenboden bis zu dunklen, organisch angereicherten Böden variieren. Wenn die Böden nass sind, werden sie dunkler und haben eine stärkere spiegelnde Komponente [a stronger specular component]. Und natürlich liegt kaum Erde bloß während der Wachstums-Saison, wenn überhaupt welche. Jedweder ,mittlere‘ Wert freiliegender Böden wird wahrscheinlich öfter falsch als richtig sein. Schätzungen der Reflektivität von Erde sollte aus Erdboden-Karten abgeleitet werden, um besser nach Gebiet gewichtete Werte für verschiedene Regionen der Welt zu erhalten und der Wachstums-Saison stärker Rechnung zu tragen.

Das andere Extrem ist der diffuse Reflexionsgrad von Wolken, welcher nahe des wahren Lambert’schen Reflexionsgrades liegt. Die Lambert’sche Reflexion ist eine Bedingung, bei der Licht gleichmäßig in alle Richtungen reflektiert wird, und die Wolken sehen aus allen Richtungen einheitlich weiß aus, außer unter den Wolken und in Schattengebieten dazwischen. Wolken können stark hinsichtlich ihrer Albedo variieren, aber ein allgemein akzeptierter mittlerer Wert liegt um 50%.

Was die Wolken zum Energie-Gleichgewicht beitragen, ist die Differenz zwischen ihrem Reflexionsgrad und dem Reflexionsgrad der Materialien an der Erdoberfläche, die sie überdecken. Wolken leiten Licht auch um, was die Berechnungen zu einer noch größeren Herausforderung macht. Allerdings haben Wolken ihre größte Auswirkung auf Reflektivität und Albedo, wenn sie innerhalb etwa 50 Grad der zur Sonne zeigenden Oberflächen-Normale haben [when they are within about 50 degrees of the surface-normal pointing towards the sun].

In den Polargebieten ist es immer wolkig. Das ist ein Grund dafür, dass die Wikinger den Gebrauch des Sonnensteins [Näheres zu ,Sonnenstein‘ hier bei Wikipedia; Anm. d. Übers.] einführten. Der sollte ihnen navigieren helfen, wenn ein Kompass unbrauchbar und Sterne nicht erkennbar waren. Die meisten Zeit des Jahres spielt es nicht wirklich eine Rolle, ob offenes Wasser oder Eis vorhanden ist, weil die Wolken sich mit Sonnenlicht überlagern [interfere], welches den Erdboden während es Arktischen Sommers erreicht, und im Arktischen Winter gibt es kein Sonnenlicht! Wenn Sonnenlicht wirklich die Oberfläche erreicht, hilft die Reflektivität von 100% an den Rändern der Erde zumindest teilweise zu erklären, warum es an den Polen so kalt ist. (Dies ist auch um den Umfang [perimeter] der Ozeane an den Schattengrenzen des Planeten der Fall, nicht nur an den Polen). Schnee auf Eis streut Licht tatsächlich in alle Richtungen, einschließlich nach unten [downward]. Folglich gibt es tatsächlich mehr Absorption bei einem Blickwinkel [glancing angle] mit dem Vorhandensein von Schnee als es über ruhigem, offenen Wasser der Fall wäre!. Es gibt Austausch [tradeoffs], welcher die Lage kompliziert, und ich glaube nicht , dass dies von den meisten Klima-Modellierern berücksichtigt worden ist. Die vereinfachende Erklärung abnehmenden arktischen Eises, dass dies für die Verstärkung der Erwärmung ursächlich ist, ist möglicherweise nur ein Gedanke all jener, denen die Fresnel’schen Gleichungen nicht bekannt sind.

Wolken sind das beste Beispiel dafür, dass die naive Behauptung „die Wissenschaft ist settled“ falsch ist. Wolken sind hinsichtlich ihrer Lage, Ausdehnung und Albedo hoch variabel und ziehen oftmals rasch unter dem Einfluss von Wind. Es gibt Gründe für die Annahme, dass eine Abnahme der Bewölkung einen größeren Einfluss auf den Rückzug von Gletschern hatte als die vermeintliche Zunahme der Lufttemperatur (≪1°C pro Jahrhundert in Mittleren Breiten). Schmelzendes Eis ist nicht direkt proportional zu einer Temperaturzunahme, falls die Temperatur niemals über den Gefrierpunkt steigt. Im besten Falle würde man erwarten, dass der Gletscherrückzug dem adiabatischen Temperaturgradienten [lapse rate] folgt, falls die Temperatur der kontrollierende Faktor wäre. Was man sieht ist, dass der Gletscherrückzug an Südhängen von Bergen ausgeprägter ist. Dies zeigt, dass es eine Abnahme der Bewölkung gegeben haben muss, die zuvor Eis und Schnee vor dem direkten Sonnenlicht abgeschirmt hatten.

Noch frustrierender ist, dass die Energie zur Phasenänderung, die in den Wolken stattfindet, nicht in einer Größenordnung modelliert werden kann, die zur Erfassung von Details erforderlich ist, die in die Globalen Zirkulationsmodelle eingehen. Es gibt einfach nicht ausreichend Computerleistung, um die Berechnungen durchzuführen, und Vereinfachungen sind erforderlich. Es gibt das alte Sprichwort „Der Teufel steckt im Detail“. Das gilt so ziemlich auch für das Problem des Energieaustausches in Wolken. Weil sich Wolken so rasch ändern und einen bedeutenden Einfluss auf Albedo und Gesamt-Reflektivität haben, ist es möglicherweise unangebracht davon auszugehen, dass die Albedo der Erde irgendwie konstant ist. Wolken ändern sich fortwährend!

Zusammengefasst: Albedo wird allgemein definiert als die „Weiße einer Oberfläche“. Wasser wird allgemein so charakterisiert, dass es eine geringe Reflektivität aufweist, weil Albedo herangezogen wird. Wasser kann schräg [obliquely] beschienen werden und eine höhere Reflektivität als Schnee aufweisen, aber es wird einem Beobachter, der sich nicht in der Reflexionsebene befindet, schwarz vorkommen. Die von Klimatologen allgemein verwendete Albedo liegt am unteren Ende einer Bandbreite gemessener Werte. Selbst hohe Albedowerte sind zu niedrig, um für eine Schätzung der gesamt-terrestrischen Reflektivität herangezogen zu werden, weil Albedo fast alle Spiegel-Reflexionen ausschließt. Albedo ist eine Unterschätzung der Reflektivität der Oberflächen-Materialien der Erde; sie ist nur angebracht für Wolken und in geringerem Maße für bloßen Sand. Die genaueste Repräsentation würde man durch gemessene BRDF für alle Winkel der einfallenden Sonnenstrahlung auf die wesentlichen Oberflächenmaterialien erhalten.

Link: https://wattsupwiththat.com/2016/09/12/why-albedo-is-the-wrong-measure-of-reflectivity-for-modeling-climate/

Übersetzt von Chris Frey EIKE




Ein Kartenhaus aus Unwahrheiten CO2: Statt „Klima-Tiger“ lediglich ein Bettvorleger

Bild rechts: Wolken und Wasserdampf werden durch die heute verfügbaren Programme zur Simulation des Klimas gar nicht, falsch oder mit viel zu geringer Genauigkeit berücksichtigt. Somit sind alle heutigen Klimaprognosen falsch.

Die Theorie von der menschengemachten katastrophalen Erderwärmung (AGW, Anthropogenous Global Warming) ist, wenn man ihre Auswirkungen auf Politik und Zivilisation betrachtet, tatsächlich schon per se eine Katastrophe. Hinzu kommt, dass sie aus einer bösen Tat – der Verbreitung von Unwahrheiten – resultiert. Auf diese Unwahrheiten trifft sehr exakt das zu, wovor bereits Schiller mit seinem berühmten Spruch aus dem Wallenstein-Drama gewarnt hatte: „Das eben ist der Fluch der bösen Tat, dass sie, fortzeugend, immer Böses muß gebären“. Im Fall der angeblichen Bedrohung des Weltklimas durch CO2 bedeutet dies, dass man zur Deckung der ersten Lüge immer neue zusätzliche Ausflüchte erfinden muss, um die Widersprüche, die sich aus der ursprünglichen Unwahrheit ergeben, „wegzuerklären“. Kriminalbeamten ist diese Vorgehensweise aus Verhören „kreativer“ Verdächtiger bestens bekannt, wenn diese versuchen, Unstimmigkeiten ihrer ersten Aussage durch immer neue Falschbehauptungen zu maskieren.

Die Energiebilanz der Erde

Nahezu die gesamte Energie, welche die Erde mit der Sonne und dem Weltall austauscht, wird durch Strahlung transportiert. Die Gesetze der Physik legen fest, dass jeder Körper, der im Vakuum des Weltalls Energie in Form von Strahlung empfängt, diese irgendwann wieder durch Strahlung abgeben muss. Anderenfalls würde seine Temperatur immer weiter ansteigen, da wegen des Vakuums die zugeführte Energie nicht durch Wärmeleitung abführen kann. Die entsprechende Energieabstrahlung erfolgt bei festen und flüssigen Körpern bei jeder Temperatur oberhalb des absoluten Nullpunkts ständig. Das Wellenlängenspektrum der ausgesandten Strahlung hängt vor allem von der Temperatur der Körperoberfläche ab. Fall keine nennenswerte Energiezufuhr von innen erfolgt, stellt sich an der Oberfläche dasjenige Temperaturniveau ein, bei dem empfangene und abgegebene Strahlungsenergie gleich groß sind. Ein solcher Körper befindet sich dann im Strahlungsgleichgewicht mit seinem Umfeld. Im Falle der Erde besteht dieses aus einer sehr heißen Sonne, einem unbedeutenden Mond sowie einem ziemlich „kalten“ Weltraum. Bei der Sonne führt die hohe Oberflächentemperatur dazu, dass diese den Löwenanteil ihrer Strahlungsenergie im Bereich des sichtbaren Lichts emittiert, Bild 1.


Bild 1. Intensität der Sonnenstrahlung bei AM0 (erdnaher Weltraum) und AM1,5 (etwa zum Zenit in Karlsruhe) im Vergleich zur Emission eines idealen Schwarzen Körpers bei einer Temperatur von 5900 K (Grafik: Degreen/ Baba66, Wikimedia Commons [WIC1])

Die Erde strahlt dagegen aufgrund ihrer wesentlich niedrigeren Temperatur fast ausschließlich im infraroten Bereich ab Wellenlängen von etwa 3,5 µm. Für diesen Spektralbereich ist die Atmosphäre wesentlich weniger transparent als für sichtbares Licht. Dies liegt nicht an den Hauptbestandteilen Sauerstoff, Stickstoff und Argon: Diese sind auch für Infrarotstrahlung zumeist ziemlich transparent. In der Atmosphäre gibt es jedoch eine Reihe von Spurengasen wie CO2, Wasserdampf und Methan, deren Moleküle mit jeweils bestimmten Wellenlängen des infraroten Spektrums Energie austauschen können. Diese Gase wirken deshalb wie Filter, die den Strahlungsfluss der IR-Strahlung in jeweils spezifischen Wellenlängenbereichen verringern, indem sie entsprechende Strahlungsquanten absorbieren. Die absorbierte Energie wird in den Gasmolekülen in Form mechanischer Energie (Molekülschwingungen) zwischengespeichert und später wieder abgegeben, oft nicht als Strahlung, sondern als kinetische (thermische) Energie an die Moleküle anderer Gase. Andererseits können diese Moleküle auch kinetische Energie, die ihnen z.B. durch elastische Stöße anderer Moleküle zugeführt wird, in Form von Strahlung wieder aussenden. Die IR-Absorptionsbanden dieser Gase überlagern sich im wichtigen Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein kleines Strahlungsfenster zwischen etwa 8 – 12 µm offen bleibt, Bild 2.


Bild 2. Die IR-Absorptionsbanden der „Treibhausgase“ überlagern sich im Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein schmales „atmosphärisches Fenster“ zwischen ca. 8 und 12 µm offen bleibt (Grafik: [TREA])

Bild 3 zeigt die Energieflüsse, die sich aus Sicht des IPCC aufgrund dieses Strahlungsaustauschs im Bereich der Erdatmosphäre und der obersten Boden- und Wasserschichten ergeben.


Bild 3. Strahlungs- und Energiebilanz der Erde laut IPPC (Grafik: [IP02])

Zum Verständnis ist anzumerken, dass die Zahlenangaben sich auf globale Durchschnittswerte beziehen, also keine Unterschiede zwischen Äquator und Polen berücksichtigen. Ausgangspunkt ist die durchschnittliche Intensität der Sonneneinstrahlung an der Grenze der Erdatmosphäre, die ziemlich konstant bei rund 1.367 W/m2 liegt. Da die Sonne jedoch jeweils nur auf die Tagseite einwirkt und die pro Quadratmeter empfangene Energie aufgrund der Kugelgestalt der Erde zu den Polen hin bis auf Null absinkt, erhält jeder Quadratmeter der oberen Atmosphäre im zeitlichen und räumlichen Mittel lediglich 340 W/m2. Hiervon werden – ebenfalls im Mittel – rund 100 W/m2 direkt zurück ins Weltall reflektiert. Diese reflektierte Strahlungsenergie hat keinen Anteil an den Umwandlungs- und Transportvorgängen an der Erdoberfläche oder in den tieferen Schichten der Atmosphäre.

Die Reflexion ist abhängig von den optischen Eigenschaften der jeweiligen Oberflächen. Charakterisiert wird sie durch den Fachbegriff „Albedo“. Dieser ist eine dimensionslose Größe zwischen 0 und 1. Die Erde hat einen Albedo-Wert von 0,29. Dies bedeutet, dass sie 71 % der auftreffenden Strahlungsenergie absorbiert und 29 % reflektiert. Eine Albedo gibt es übrigens auch für die Emissivität (Emissionsgrad) des gleichen Körpers beim Aussenden von Strahlung. Ein Albedo-Wert von 0,29 für die Emissivität besagt deshalb, dass der betreffende Körper beim Aussenden nur 0,29 x so viel Strahlungsenergie aussendet wie einer, der eine Albedo von 1 aufweist. Zu beachten ist hierbei zusätzlich, dass der Wert der Albedo von der jeweiligen Wellenlänge abhängt. Ein Körper, der im Bereich des sichtbaren Lichts eine Albedo von 0,29 hat, kann bei Abstrahlung im Infrarotbereich unter Umständen eine Albedo von 0,8 oder sogar nahe an 1 aufweisen. Deshalb sollte man sich bei der Kalkulation von Strahlungsbilanzen vergewissern, wie die konkreten Albedowerte für absorbierte und emittierte Strahlung aussehen. Einen Überblick über Absorptions-Albedowerte wichtiger Strukturen auf der Erde und in der Atmosphäre gibt Bild 4


Bild 4. Verschiedene Oberflächen haben eine unterschiedliche Rückstrahlung: Anhand der Landschaft werden ausgewählte Albedowerte dargestellt (Grafik: eskp.de, Creative Commons, [WIME])

Den Löwenanteil der direkt in der Atmosphäre erfolgenden Reflexion (Bild 3) bewirken mit rund 47 W/m2 die Wolken [STEP]. Von der restlichen Strahlung verbleiben noch weitere Anteile in der Atmosphäre oder werden von Boden und Wasser reflektiert, so dass letztlich nur rund 161 W/m2 der solaren Strahlungsenergie auf Bodenniveau absorbiert werden. Die Erdoberfläche gibt diese Energie nahezu vollständig wieder nach oben in die Atmosphäre ab, zum größten Teil in Form von infraroter Strahlung, den Rest in Form fühlbarer Wärme durch atmosphärische Konvektion oder als latente Wärme aufgrund der Verdunstung von Wasser. Die Infrarotstrahlung vom Boden und vom Wasser gelangt wegen des kleinen offenen Strahlungsfensters der Atmosphäre nur zu einem vergleichsweise geringen Anteil direkt in den Weltraum. Ein Großteil wird von den sogenannten Treibhausgasen, vom Wasserdampf sowie von Wolken abgefangen. Ein Teil hiervon wird – häufig mit geänderter Wellenlänge – wieder in Richtung Erdboden zurückgestrahlt, während der Rest letztlich ins Weltall abgegeben wird. Dieser Energietransport erfolgt meist über zahlreiche Einzelschritte mit zwischengeschalteter Umwandlung in andere Energieformen oder Wellenlängen. Es kommt zu Umlenkungen und Richtungswechseln. Zu diesem „Strahlungskreislauf“ tragen auch die bereits erwähnten Wärme- und Verdunstungsanteile sowie die in der Atmosphäre direkt absorbierten Anteile der Sonnenstrahlung bei, welche den Energiegehalt der unteren Atmosphäre erhöhen. Auch diese Energie muss letztlich, wenn sie sich nach oben „durchgearbeitet“ hat, in Form von Wärmestrahlung abgeführt werden.

Entscheidend ist aus Sicht der AGW-Theorie das behauptete Ungleichgewicht der Strahlungsbilanz (Imbalance). Gemeint ist ein kleiner, im Bild 6 unten links eingezeichneter Energiefluss von 0,6 W/m2 (mit einer Streuung zwischen 0,2 und 1,0 W/m2), der nach Auffassung des IPCC langfristig im System Erdoberfläche/ Wasser/ Atmosphäre verbleibt und die behauptete „Klimaerwärmung“ bewirken soll.

Da die reine AGW-Lehre besagt, dass nur das CO2 der Haupt-Bösewicht sein kann und darf…

Schon diese Behauptung, dass nämlich das vom Menschen durch Verbrennung fossiler Rohstoffe in die Atmosphäre eingebrachte CO2 die Hauptursache für eine katastrophale Veränderung des Weltklimas sei, ist grob unwissenschaftlich. Das lässt sich leicht erkennen, wenn man sich die hierzu präsentierten Darstellungen des IPCC (Bild 5) genauer ansieht. In dieser Darstellung wird für die Wirkung der einzelnen Gase bzw. Aerosole ein „Strahlungsantrieb“ (radiative forcing) angegeben. Damit ist die von den „Treibhausgasen“ angeblich durch vermehrte Reflexion infraroter Wärmestrahlung zurück auf die Erdoberfläche verursachte dauerhafte Veränderung der Energiebilanz gemeint.

 

Bild 5. Bezeichnung und angeblicher Strahlungsantrieb der wichtigsten „Treibhausgase“ laut IPCC (Grafik: IPCC AR 2007, [IP01])

In der Summe wird den im Bild 5 aufgeführten Treibhausgasen ein kumulierter „Strahlungsantrieb“ von 1,6 W/m² (Streubereich 0,6 – 2,4 W/m²) zugeordnet. Grundlage der entsprechenden Theorie ist der sogenannte „Treibhauseffekt“ der Atmosphäre. Dieser soll dafür sorgen, dass die Gleichgewichtstemperatur der Erdoberfläche bei 15 °C statt bei lediglich -18 °C (255 K) liegt. Hervorgerufen werden soll dies durch die Rück-Reflexion der von der Erde ausgehenden infraroten Wärmestrahlung durch die „Treibhausgase“, wodurch das Temperaturniveau um 33 °C ansteigen soll. Durch menschengemachte Erhöhung des Anteils dieser „Treibhausgase“ soll die Temperatur jetzt noch deutlich stärker ansteigen. An dieser Stelle sei noch angemerkt, dass dies eine Hypothese ist. Viele Wissenschaftler bestreiten diesen Ansatz und führen aus, dass hierfür bisher noch kein Beweis erbracht werden konnte.

….wird die Rolle des Wassers als entscheidender Faktor einfach unterschlagen

Ein genauerer Blick auf Bild 5 offenbart eine klaffende Lücke, die ein Schlaglicht auf die wissenschaftliche Redlichkeit des IPCC bzw. auf den Mangel an derselben wirft: Das Wasser bzw. der in der Atmosphäre befindliche Wasserdampf fehlt gänzlich, der lächerlich geringe „cloud albedo effect“ von ca. -1,5 W/m² ist ein geradezu groteskes Beispiel wissenschaftlicher Unehrlichkeit. Man vergleiche dies mit den Zahlen, die weiter unten noch aufgeführt werden. Dabei ist Wasserdampf ebenso wie CO2 ein infrarotaktives Gas. Seine Wirkung übertrifft sogar diejenige des CO2 sowie auch die aller anderen „Treibhausgase“ zusammengenommen ganz erheblich. Doch obwohl je nach Quelle zugegeben wird, dass Wasserdampf für 36 bis >85 % des „Treibhauseffekts“ verantwortlich sei, wird es vom IPCC sowie von meinungsführenden Institutionen wie Wikipedia oder der US-Umweltschutzbehörde EPA noch nicht einmal in der Kategorie „Treibhausgase“ geführt. Wichtiger Grund für seine starke Wirksamkeit ist der im Vergleich zu allen anderen „Treibhausgasen“ sehr viel höhere Gehalt in der Atmosphäre. Der Mengenanteil des CO2 in der Atmosphäre liegt nach aktueller Lehrmeinung bei ziemlich genau 400 ppm. Den Unterschied zum Wasserdampfgehalt verdeutlicht die folgende Tabelle:

Aus der Tatsache, dass Wasserdampf vom IPCC trotz seiner IR-Eigenschaften nicht als Treibhausgas gewertet wird, folgt für zahlreiche Vertreter der AGW-Hypothese, die sich möglicherweise noch einen gewissen Rest an Schamgefühl beim Vorbringen wissenschaftlich klar erkennbarer Unwahrheiten bewahrt haben, ein Gewissenskonflikt, der zu einer Vielzahl teils lächerlicher und oft sehr plump vorgetragener Ausflüchte führt. So überschreibt man in der deutschen Ausgabe von Wikipedia den Absatz im Treibhausgas-Beitrag, in dem Wasserdampf behandelt wird, lediglich mit „Weitere zum Treibhauseffekt beitragende Stoffe“. Doch schon im ersten Satz sahen sich die Redakteure anscheinend außerstande, die unwürdieg Scharade weiterzuführen, und sagen klipp und klar: „Wasserdampf ist das wichtigste Treibhausgas. Sein Beitrag zum natürlichen Treibhauseffekt wird auf etwa 60 % beziffert“ [WITR].

Ihre englischsprachigen Kollegen rechnen den Wasserdampf dagegen bereits in der Einleitung zu den wichtigsten Treibhausgasen und stellen fest: „Wasserdampf trägt am meisten zum Treibhauseffekt bei, und zwar zwischen 36 % und 66 % bei klarem Himmel und zwischen 66 % und 85 %, wenn Wolken mit berücksichtigt werden“ [WITE].

Besonders knapp gehalten ist die Erläuterung der US-Umweltschutzbehörde EPA (Environmental Protection Agency), einer Bastion der US-Grünen. Auch auf deren Webseite werden Grafiken über den Einfluss wichtiger, vom Menschen verursachter Treibhausgase gezeigt [EPA], und auch hier wird Wasser(dampf) nicht aufgeführt. Hierzu steht nur lapidar: „Wasserdampf ist ein Gas: Wasser kann als unsichtbares Gas vorkommen, das als Wasserdampf bezeichnet wird. Wasserdampf kommt in der Atmosphäre als natürlicher Bestandteil vor und hat einen starken Einfluss auf Wetter und Klima“. Anschließend folgt noch eine kurze Erläuterung zu seinem angeblich positiven Rückkopplungseffekt aufgrund der verstärkten Verdunstung in einer wärmer werdenden Atmosphäre, was aufgrund der Treibhausgaswirkung des Wasserdampfs zu noch mehr Erwärmung und damit zu einer immer weiter voranschreitenden Erwärmung führen soll.

Eine ganz andere Einschätzung findet man dagegen bei einer Untergliederung der NASA. Zur Erinnerung: Das ist der frühere Arbeitgeber des Dr. Michael E. Mann, der mit seiner hoch umstrittenen „Hockeystick“-Kurve zu einem der prominentesten Frontmänner der AGW-Theorie avancierte. Es gibt dort aber anscheinend auch noch integre Wissenschaftler. Im Goddard Institute for Space Studies (GISS) der NASA beschäftigt man sich im Rahmen des International Satellite Cloud Climatology Project (ISCCP) intensiv mit Klimasimulationen [WONA]. In dieser Veröffentlichung findet sich die bemerkenswerte Aussage, dass Wasserdampf den größten Teil der von der Oberfläche aufsteigenden langwelligen Wärmestrahlung absorbiere und dadurch auch den größten Anteil am Treibhauseffekt habe – der jetzt durch menschengemachte Verschmutzung verstärkt werde. Ohne den Wasserdampf in der Atmosphäre wäre die Erdoberfläche im Mittel um 31 °C (!) kälter als heute. Damit werden dem Wasser mindestens 90 % am gesamten atmosphärischen „Treibhauseffekt“ zugesprochen.

Der angebliche Verstärkungseffekt…

Nächste zentrale Unwahrheitsbaustelle am Kartenhaus der AGW-Theorie ist die sogenannte „Wasserdampfverstärkung“. Dieser behauptete positive Rückkopplungseffekt des Wasserdampfs ist ein entscheidender Dreh- und Angelpunkt der AGW-Hypothese, weil die Wirkung der „offiziell anerkannten“ Treibhausgase nicht ausreicht, um den bisher beobachteten Temperaturanstieg zu erklären. Auf dieser Verstärkungs-Fiktion bauen dann weitere unwissenschaftliche Scheinargumente auf, mit denen versucht wird, die Rolle des eigentlich dominierenden Wassers im Strahlungs- und Wärmehaushalt der Erdoberfläche zu leugnen. Stattdessen wird dessen Einfluss dem CO2 sowie den anderen „Klimagasen“ zugesprochen, obwohl sie bei weitem nicht die gleiche Wirksamkeit haben. Hauptgrund für diese seltsam anmutende Argumentation ist sicherlich, dass man die Fiktion vom Menschen als Ursache des behaupteten Klimawandels auf Biegen und Brechen aufrechterhalten will. Deshalb werden wir uns das Argument der „Wasserdampfverstärkung“, das in unzähligen Variationen ständig wiederholt wird, etwas genauer anschauen. Eine grafische Darstellung dessen, was dabei ablaufen soll, zeigt Bild 6.


Bild 6. Die AGW-Modellvorstellung der verstärkenden Wirkung von Wasserdampf auf die vom CO2 nebst den anderen „Klimagasen“ hervorgerufene Erwärmung (Grafik: [NOAA])

Diese Modellannahme ist schon vom Ansatz her unsinnig, denn sie würde darauf hinauslaufen, dass sich das Klimasystem bereits nach einem kleinen „Stupser“ von selbst immer weiter hochschaukeln würde, bis es schließlich gegen eine Art Anschlag liefe. Bei dieser Argumentation wird zudem ein wichtiger zusätzlicher Aspekt unterschlagen, denn eigentlich müsste man berücksichtigen, dass in den Ozeanen nicht nur enorme Wassermengen, sondern auch rund 38.000 Gigatonnen (Gt) Kohlenstoff als CO2 gespeichert sind *). Das ist rund das 50-60fache dessen, was in der Atmosphäre vorhanden ist. Träfe die Theorie von der „Wasserdampfverstärkung“ zu, so würde mit steigenden Temperaturen ein erheblicher Teil dieses CO2 ebenfalls in die Atmosphäre entweichen und seinerseits den Effekt weiter verstärken **). Dies wäre unvermeidlich, weil die Löslichkeit des CO2 mit steigender Temperatur stark abnimmt. Ein sich erwärmendes Klima würde, wenn die Hypothese von der „Wasserdampfverstärkung“ zuträfe, gleich zwei parallele Mechanismen aktivieren, die unser Klimasystem in eine sich katastrophal immer weiter steigernde Erwärmung katapultieren würden. Dieser Prozess würde solange voranschreiten, bis alles CO2 und alles Wasser aus den Ozeanen entwichen bzw. verdunstet wäre, um dann in einem lebensfeindlichen Endzustand zu verharren. Der C-Inhalt der Atmosphäre läge dann bei rund 40.000 Gt statt der heutigen rund 750 Gt, und sie bestünde hauptsächlich aus Wasserdampf.

Diese Hypothese ist demnach offenkundig schon dann wenig glaubhaft, wenn man sie lediglich als Gedankenexperiment durchspielt. Träfe sie zu, dann gäbe es wohl kaum höheres Leben auf der Erde, wir hätten Zustände, die stark denjenigen der Venus-Atmosphäre ähnelten. Dass so etwas auch in der Realität zumindest in den letzten 550 Mio. Jahren nie vorgekommen ist, beweist der Blick in die Erdgeschichte. Als sich damals aufgrund der Photosynthese unsere heutige „moderne“ Atmosphäre mit ihrem hohen Sauerstoffanteil gebildet hatte, lag deren CO2-Gehalt bis zum 20fachen höher als vor Beginn des Industriezeitalters. Seither ist er unter großen Schwankungen nur ganz allmählich auf das heutige Niveau von 300-400 ppm abgesunken, siehe Bild 7.


Bild 7. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger, [CALU])

Wer dies berücksichtigt, kann die Theorie der Überschreitung eines „Kipppunktes“ in der Temperaturentwicklung aufgrund einer „Wasserdampfverstärkung“ der CO2-Wirkung nicht mehr ernst nehmen. Unterstrichen wird ihre Unhaltbarkeit zusätzlich durch die grafische Auftragung der in verschiedenen Erdzeitaltern seither aufgetretenen Kombinationen aus CO2-Gehalt und Temperatur, Bild 8.


Bild 8. Im Verlauf der Erdzeitalter vom Kambrium (vor etwa 541 bis 485,4 Mio. Jahren) bis heute gab es keine erkennbare Kopplung zwischen atmosphärischem CO2-Gehalt und Temperaturniveau (Daten: Wikipedia)

Als weitere Widerlegung der AGW-Theorie vom CO2 als entscheidendem „Klimagas“ können die recht massiven Schwankungen der Temperaturen im Verlauf vergangener Eiszeiten und Zwischeneiszeiten herangezogen werden. Schließlich haben nach aktuellem Stand der Untersuchungen an Eisbohrkernen die CO2-Gehalte in diesem Zeitraum nicht einmal entfernt an heutige Pegel herangereicht. Dennoch schwankten die Temperaturen seit 450.000 Jahren um insgesamt 15 °C um das heutige Niveau, Bild 9.

Bild 9. Im Verlauf der letzten 450.000 Jahre schwankten die Temperaturen im Verlauf mehrerer Eiszeiten und Zwischeneiszeiten bei wenig veränderlichem CO2-Gehalt der Atmosphäre mit einer Spanne von bis zu 15 °C (zwischen etwa – 9 und + 6 °C) um die heutigen Werte (Grafik: Langexp, GNU Wikimedia Commons, [WIC2])

Diese Fakten beweisen eindeutig, dass es egal ist, wie viele Seiten voller einfacher oder auch komplexer mathematisch-physikalischer Herleitungen und Begründungen die Vertreter der AGW-Hypothese zur Untermauerung ihrer Theorien über Wasserdampfverstärkung und Kipppunkte vorbringen: Sie werden durch die Realität der Erdgeschichte ad absurdum geführt.

…und andere Gutenachtgeschichten zum Thema Wasserdampf

Wie bereits dargelegt, wird Wasserdampf ungeachtet seiner starken „Klimawirksamkeit“ seitens des IPCC nicht als „Treibhausgas“ eingestuft. Eine Erklärung für diese seltsam anmutende Haltung finden sich u.a. auf der Webseite der American Chemical Society [ACS]. Zwar wird auch dort zunächst die starke Wirkung von Wasserdampf anerkannt, die in diesem Fall mit 60 % beziffert wird. Dann wird jedoch behauptet: „Allerdings bestimmt der Wasserdampf nicht die Erdtemperatur, stattdessen wird der Wasserdampf durch die Temperatur bestimmt“. Der Treibhauseffekt werde ausschließlich durch nicht-kondensierende Gase bestimmt. Die entscheidende Rolle spiele das CO2, ergänzt um kleinere Beiträge durch Methan, Stickstoffmonoxid, Lachgas und Ozon. Hinzu kämen kleinere Anteile durch die menschliche Zivilisation erzeugter Gase auf Basis von Chlor- bzw. Fluorverbindungen. Schließlich wird die Katze aus dem Sack gelassen: Als Begründung für den Ausschluss des Wasserdampfs dient auch den US-Chemikern ausschließlich die im vorigen Absatz bereits umfassend widerlegte Theorie von der „Wasserdampfverstärkung“. In die gleiche Kerbe schlagen sowohl das deutschsprachige Wikipedia als auch die englische Version [WITR, WITE].

In der englischen Fassung findet sich allerdings noch ein weiteres und besonders abenteuerliches Argument: Man vergleicht die Verweildauer von CO2 in der Atmosphäre von „Jahren oder Jahrhunderten“ mit der viel kürzeren durchschnittlichen Verweildauer eines H2O-Moleküls in der Atmosphäre von lediglich 9 Tagen. Das wird dann als Begründung dafür angeführt, dass Wasserdampf lediglich „auf die Wirkung anderer Treibhausgase reagiere und diese verstärke“. Dieses Argument ist an Lächerlichkeit kaum zu überbieten. Im Mittel tritt ja bei Vorliegen geeigneter Bedingungen ebenso viel Wasserdampf durch Verdunstung neu in die Atmosphäre über, wie durch Kondensation ausgefällt wird, so dass die Konzentration im Großen und Ganzen unverändert bleibt. Das an den Haaren herbeigezogene Argument von der geringen Verweildauer ist somit hinfällig. Bei geschlossenen Kreisläufen wie dem des Wassers zwischen Gewässern, Atmosphäre und Land ist es völlig unerheblich, ob ein einzelnen Molekül nur fünf Sekunden oder 5.000 Jahre in einem der Stadien des Kreislaufs verbleibt. Das einzige was zählt ist die Gesamtmenge bzw. der jeweilige Anteil des betreffenden Stoffs in diesem Stadium, und diese bleiben im statistischen Mittel unverändert oder driften höchstens vergleichsweise langsam über längere Zeiträume nach oben oder unten. Das kann schon ein Gymnasiast im Physikunterricht leicht nachvollziehen.

Von entscheidender Bedeutung wäre dieses Argument dagegen bei Stoffen, die durch bestimmte Ereignisse mehr oder weniger plötzlich in großen Mengen in die Atmosphäre freigesetzt und von der Natur entweder schnell, langsam oder gar nicht resorbiert bzw. in Senken abgelagert werden. Dies ist beim CO2 z.B. nach dem Ausbruch von Supervulkanen der Fall. Hier ist eine möglichst genaue Kenntnis der zugrundeliegenden Kreisläufe, ihrer Stoffflüsse und deren Gesetzmäßigkeiten unabdingbar. Doch auch hier wird von den AGW-Propheten massiv geschummelt. Aus Platzgründen wird hierauf in einem weiteren Artikel noch detailliert eingegangen.

Die Wolken sind der Hund, das CO2 höchstens der Schwanz

Der nächste Aspekt, bei dem sich die AGW-Vertreter mit ihren Theorien regelrecht an Strohhalme klammern, ist das Thema Wolken. Zunächst sei angemerkt, dass es sich auch hierbei um Wasser handelt, allerdings liegt es im flüssigen (Wassertröpfchen) bzw. festen (Eiskristalle) Aggregatzustand vor. Und diese Wolken haben es in sich. Das IPCC behauptet ja, dass ein angenommener Energiefluss (siehe Bild 3) von 0,6 W/m2 das Erdklima bedrohen soll. Das sind jedoch gerade mal etwa 1,3 % des Betrags von 47 W/m2, den die Wolken direkt wieder ins Weltall reflektieren [STEP]. Nun weiß jeder Mensch aus eigener Erfahrung, dass kaum ein Wetterphänomen so unstet ist wie die Wolken. An einem schönen Sommer-Sonnentag kann es sein, dass ihre Abschattung kaum ins Gewicht fällt, bei Unwettern kann es dagegen selbst mitten am Tage so dunkel werden, dass man im Haus das Licht einschalten muss. Ihre Wirkung auf den Energie- und damit Temperaturhaushalt der Erde ist daher ebenso erratisch wie gewaltig. Diese Phänomene konnten früher mangels geeigneter Instrumente nicht gemessen werden. Eine Erfassung durch Satelliten ist erst seit wenigen Jahrzehnten möglich, doch deckt diese wesentliche Aspekte wie die Transparenz für verschiedene Wellenlängen nur unvollständig ab. Hier ist eine Erfassung vom Boden aus nicht zu ersetzen.

Ein weiterer, ebenso wichtiger Aspekt ist der, dass Wolken eine ganz besondere Eigenschaft haben: Sie absorbieren und emittieren Licht aus allen Bereichen des Spektrums, also auch die infrarote Strahlung, die von der Erdoberfläche ebenso ausgeht wie von den IR-strahlungsfähigen Gasen in der Atmosphäre. Zudem geben sie als flüssige Körper mit Masse und Temperatur selbst IR-Strahlung in einem annähernd kontinuierlichen Spektralbereich sowohl nach oben als auch nach unten ab. Während sie also einerseits die Erde nach oben gegen die Sonnenstrahlen abschirmen, sorgen sie „nach unten“ dafür, dass mehr Strahlungsenergie wieder Richtung Erdoberfläche reflektiert wird als bei freiem Himmel. Hinzu kommt der nicht unerhebliche Anteil „Eigenstrahlung“ in alle Richtungen. Die entsprechenden Energiebeträge liegen um zwei Größenordnungen über dem angenommenen „Imbalance“-Betrag und um mehr als anderthalb Größenordnungen über dem Beitrag, der den angeblichen „Klimagasen“ zugeordnet wird. Schon geringe Unsicherheiten bei der Erfassung der Wirkung der Wolken reduzieren daher den „Imbalance-Effekt durch Klimagase“ auf den Rang einer nicht maßgeblichen Störgröße. Wenn man sich dies vergegenwärtigt, kann man nur staunen, auf welch wackliger Grundlage die AGW-Theoretiker ihre Gedankengebäude aufgebaut haben.

Die Uneinigkeit der Wissenschaft beim Thema Wolken

Eines der meistgebrauchten Totschlags-Argumente gegen die sogenannten Klimaskeptiker ist bekanntlich die Behauptung, „die Wissenschaft“ sei sich in der Frage der menschengemachten Klimaerwärmung zu 97 % einig und diejenigen, die nicht damit übereinstimmten, seien Querulanten, Spinner oder Laien ohne die erforderliche wissenschaftliche Qualifikation. In Anlehnung an die rechtlichen Regelungen bezüglich des Verbots der Leugnung von Nazi-Vergehen wird besonders gerne der diskriminierende Begriff „Klimaleugner“ verwendet. Für diese fordern manche besonders forsche Exponenten der Mehrheitsmeinung teils bereits die Todesstrafe, teils bereiten sie wie einige US-amerikanische Staatsanwälte Strafverfolgungsverfahren auf der Grundlage von Gesetzen vor, die für die Bekämpfung des organisierten Verbrechens geschaffen wurden. Angesichts dieser massiven Drohungen und Diskriminierungen macht es daher Sinn, sich mit dem angeblichen „Konsens der Wissenschaft“ beim Thema Wolken und ihrer Wirkung auf das Klima etwas näher zu beschäftigen.

In der englischen Fassung von Wikipedia [WITE] werden Wolken unter Berufung auf eine Untersuchung von Schmidt et al. aus dem Jahre 2010 [SCHM] als Hauptverursacher der Klimaerwärmung eingestuft. Die Autoren ordnen dem Wasserdampf rund 50 % des Treibhauseffekts zu, die Wolken sollen weitere 25 % ausmachen, 20 % kommen demnach vom CO2 und die restlichen 5 % werden Aerosolen und den sogenannten „minor greenhouse gases“ zugeschrieben.

Weniger sicher ist man sich dagegen bei den Redakteuren der deutschen Fassung von Wikipedia [WITR]. Dort wird zunächst erläutert, dass Wolken als kondensierter Wasserdampf streng genommen kein Treibhausgas darstellten. Sie absorbierten aber IR-Strahlung und verstärkten dadurch den Treibhauseffekt ***). Zugleich reflektierten sie jedoch auch die einfallende Sonnenenergie und hätten daher auch einen kühlenden Einfluss. Die Frage, welcher Effekt überwiege, hänge von Faktoren wie der Höhe, Tageszeit/Sonnenhöhe, Dichte oder geografischen Position der Wolken ab. Inwieweit eine Erderwärmung die im gegenwärtigen Klima insgesamt kühlende Wirkung der Wolken abschwäche oder verstärke, sei die unsicherste Rückkopplungswirkung der derzeitigen globalen Erwärmung. Der letzte Satz ist übrigens so geschickt formuliert, dass man ihn erst genauer lesen muss. Erst dann erkennt man, dass hier den Wolken in der jetzigen klimatischen Situation de facto eine kühlende Wirkung zugesprochen wird. Die Unsicherheit bezieht sich lediglich auf den Fall, dass es in Zukunft tatsächlich zu einer Erwärmung des Klimas kommen sollte.

Ziemlich präzise sind dagegen die Angaben des Wiki-Bildungsservers [WIBI]. Dort wird ausgesagt, dass Wolken einerseits die planetare Albedo um ca. -50 W/m2 erhöhten, auf der anderen Seite jedoch auch durch Absorption und Emission der langwelligen Wärmestrahlung mit etwa + 30 W/m2 zum Treibhauseffekt beitrügen. Der Netto-Strahlungseffekt liege damit bei ungefähr -20 W/m2, was eine deutliche Abkühlung des gegenwärtigen Klimas bewirke. Nach Umrechnung der beiden gegenläufigen Effekte in Temperaturen ergebe sich aus einer Abkühlung um -12 °C und einer Erwärmung um +7 °C eine netto-Abkühlung von -5 °C.

Eine sehr fundierte Einschätzung findet man bei dem bereits erwähnten International Satellite Cloud Climatology Project (ISCCP) der NASA [WONA], wo man sich intensiv mit den extrem komplexen Zusammenhängen der Bildung von Wolken und ihres Einflusses auf das Klima beschäftigt. Dabei kommt man zu sehr klaren Aussagen: So wird im Zusammenhang mit Strahlungs- und Niederschlagswechselwirkungen von Wolken lapidar festgestellt, dass man derzeit nicht wisse, wie groß diese Effekte seien. Deshalb sei eine korrekte Vorhersage eventueller Auswirkungen auf den Klimawandel nicht möglich. Und dann kommt es (zumindest für die AGW-Vertreter) knüppeldick, findet sich dort doch die Einschätzung, dass die aktuell verwendeten Programme zur Simulation des Klimas insbesondere mit Blick auf die Vorhersagegenauigkeit bezüglich Wolkenbildung und Regenmengen viel zu ungenau seien. Für eine vertrauenswürdige Klimavorhersage müsse die diesbezügliche Vorhersagegenauigkeit um den Faktor 100 (!) besser werden. Dies setze auch entsprechend verbesserte Messverfahren voraus. Damit ist im Prinzip alles, was bisher an Klimasimulationen präsentiert wurde, aus berufenem Munde (NASA/GISS) für unbrauchbar erklärt worden.

Auf Satellitenmessungen des „Earth Radiation Budget Experiment“ (ERBE) stützt sich die Einschätzung von Prof. Walter Roedel in seinem Buch über Physik der Atmosphäre [ROED]. Diese Daten zeigten, dass global die Abkühlung durch die Erhöhung der planetaren Albedo (immer im Vergleich zu einer wolkenfreien Atmosphäre) gegenüber der Erwärmung durch die Reduzierung der langweiligen Abstrahlung weit überwiege, wenn auch mit starker regionaler Differenzierung. Einem globalen Verlust von etwa 45 bis 50 W/m² aufgrund der erhöhten Albedo stehe nur ein Gewinn von etwas über 30 W/m² durch die Reduktion der thermischen Abstrahlung gegenüber; die Strahlungsbilanz wird also durch die Bewölkung um 15 bis 20 W/m² negativer. Das liegt etwa um den Faktor 10 über dem behaupteten Einfluss des CO2.

Interessante Erkenntnisse zur Größe und Variation der IR-Strahlung aus der Atmosphäre zum Boden liefern Messungen von E.I. Nezval et al. [NEZV] bei Untersuchungen in Russland über mehrere Jahre. Obwohl hierbei nur die abwärtsgerichteten Strahlungskomponenten erfasst wurden, sind die Daten sehr aufschlussreich, da sie die erhebliche Größenordnung sowie die enorme Variabilität der von Wolken und Wasserdampf gelieferten Beiträge zum Energiehaushalt der Atmosphäre verdeutlichen, Bild 10.

Bild 10. Messdaten zur abwärtsgerichteten IR-Strahlung in der Region Moskau über drei Jahre. Der Beitrag aller „offiziellen Klimagase“ (vergl. Bild 5) ist nur etwa halb so groß wie die Strichdicke der Achseinteilung, auf die der Pfeil zeigt (Grafik: E.I. Nezval et al. [NEZV])

Die höchste abwärtsgerichtete IR-Strahlungsintensität wurde an einem wolkenreichen Juliabend 2009 mit 424 W/m2 gemessen, die niedrigste Wert von 169 W/m2 wurde bei klarem Himmel in den Morgenstunden eines Februartags registriert. Vergleicht man diese Zahlen und ihre Variationsbreite mit dem vom IPCC angegebenen „Strahlungsantrieb“ der Klimagase von lediglich 1,6 W/m2, so kommt man auf einen Multiplikator von bis zu 265 (!). In Sommermonaten variierte der nach unten gerichtete IR-Strahlungsanteil innerhalb eines Tages um bis zu 33 W/m2. Man vergleiche dies mit aktuellen Simulationen, die mit festen Mittelwerten von beispielsweise ganzjährig 1,6 W/m2 arbeiten. Zudem werden die atmosphärischen Eingangsdaten wie Temperatur oder Luftfeuchtigkeit bis heute oft nur mit einstelliger Genauigkeit gemessen. Daher ist die Nonchalance, mit der die Creme der „Klimawissenschaft“ meint, dem Einfluss des „anthropogenen CO2“ die Hauptrolle zuordnen zu müssen und Simulationen auf der Grundlage von solch unsicheren Daten vertrauen zu dürfen, selbst für jemanden ohne wissenschaftlichen Hintergrund nur sehr schwer nachvollziehbar. Stattdessen sollte man besser darangehen, zunächst einmal die Hauptfaktoren des Wetter-und Klimageschehens flächendeckend mit ausreichender Genauigkeit und zeitlicher Auflösung zu ermitteln, bevor man Klimasimulation betreibt 

Mangelnde Wissenschaftlichkeit: Das Dilemma der AGW-Vertreter

Die hier aufgeführten Beispiele zeigen, dass die ganze auf dem angeblichen Effekt des „wichtigsten Treibhausgases CO2“ basierende AGW-Theorie wissenschaftlich kaum haltbar ist. Hier wird vor allem Ideologie unter wissenschaftlichem Mäntelchen verpackt und dem Volk mit dem dicken Knüppel der Medien (Prof. Lesch, Schellnhuber und Konsorten) und der Politik (massive Einflussnahme auf Stellenbesetzungen und Fördergelder) schon ab Kindergartenalter in die Gehirne geprügelt. Kritische Meinungen versucht man nicht nur durch Verweis auf einen angeblichen „Konsens der Wissenschaft“, sondern zunehmend auch durch Einschüchterung, Verleumdung sowie direkte Diskriminierung zu unterdrücken. Und das, obwohl sich die Aussagen der AGW-Vertreter schon bei elementaren Grundlagen teils diametral widersprechen.

Präzise auf den Punkt gebracht hat dies der emeritierte Associate Professor für Meteorologie vom Geophysikalischen Institut der Universität in Fairbanks (Alaska, USA), Dr. rer. nat. Gerhard Kramm, in einer kürzlichen Stellungnahme zur Klimadiskussion [KRAM]: „Der sogenannte atmosphärische Treibhauseffekt beruht auf pseudowissenschaftlichem Müll. Mit Physik hat dieser Müll nichts zu tun. Wäre es ein physikalischer Effekt, dann wäre er eindeutig definiert. Das Gegenteil ist der Fall. Es gibt eine Vielzahl von unterschiedlichen Definitionen und Erklärungen, die sich z.T. sogar widersprechen. Selbst die Esoterik stellt höhere Ansprüche als die sogenannte Klimaforschung“.

Fred F. Mueller

Fußnoten

*) Bei der Quantifizierung von CO2-Kreisläufen wird aus praktischen Erwägungen nur der Kohlenstoffanteil im CO2 berücksichtigt, weil der Kohlenstoff in Reservoirs wie z.B. Pflanzen oder Humus auch in völlig anderen Verbindungen vorliegen kann, aus denen sich erst später wieder CO2 bildet.

**) In der Regelungstechnik entspräche dies einer „Mitkopplung“, also einem Effekt, den man z.B. dann erlebt, wenn man mit dem Mikrofon eines Verstärkers zu nahe an die Lautsprecher kommt: Es kommt zu einem immer lauter werdenden Brummen oder Pfeifen, das solange zunimmt, bis die Anlage an ihre Grenzen gekommen ist. Die Geowissenschaften beweisen jedoch, dass Temperaturen und Klimaentwicklung der Erde seit hunderten Millionen von Jahren trotz gelegentlicher schwerer Katastrophen (Vulkane oder Meteoreinschläge) stets innerhalb vergleichsweise vernünftiger Grenzen verblieben sind und die Effekte solcher Katastrophen ausbaalaciert werden konnten. Statt einer katastrophalen Mitkopplung wurde unser Klima demnach offensichtlich von einer sehr gutmütigen Gegenkopplung erstaunlich stabil auf einem lebensfreundlichen Kurs gehalten.

***) Diese Erklärung hätte bei Physiklehrern alter Schule noch die Bemerkung „Sechs, setzen“ ausgelöst, verbunden mit einer Strafarbeit zum Thema, dass nicht die Absorption, sondern höchstens die (Re-)Emission von IR-Strahlung einen Beitrag zu einem „Treibhauseffekt“ leisten könne. Aber Wikipedia als angeblich seriöses Nachschlagewerk mit dem Anspruch wissenschaftlicher Korrektheit ist schon längst fest in der Hand einer neuen Generation „moderner“ Wissenschaftler, denen ideologische Überzeugungen wichtiger sind als Mathematik, Physik oder Naturwissenschaften.

Quellen

[ACS] https://www.acs.org/content/acs/en/climatescience/climatesciencenarratives/its-water-vapor-not-the-co2.html

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml

[CDIA] http://cdiac.ornl.gov/trends/co2/recent_mauna_loa_co2.html

[EPA] https://www3.epa.gov/climatechange/kids/basics/today/greenhouse-gases.html

[IP01] spm2 https://www.ipcc.ch/report/graphics/index.php?t=Assessment%20Reports&r=AR4%20-%20WG1&f=SPM

[IP02] Climate Change 2013: The Physical Science Basis. Working Group I contribution to the IPPC Fifth Assessment Report

[KRAM] http://www.eike-klima-energie.eu/climategate-anzeige/klimaforschung-eine-spielvariante-der-zukunftsforschung-was-ist-zukunftsforschung-was-kann-sie-leisten/#comment_8

[NEZV] E. I. Nezval, N. E. Chubarova, J. Gröbner, and A. Omura. Influence of Atmospheric Parameters on Downward Longwave Radiation and Features of Its Regime in Moscow. ISSN 00014338, Izvestiya, Atmospheric and Oceanic Physics, 2012, Vol. 48, No. 6, pp. 610–617. © Pleiades Publishing, Ltd., 2012.DOI: 10.1134/S0001433812060102

[NOAA] Image provided by NOAA ESRL Chemical Sciences Division, Boulder, Colorado, USA http://www.esrl.noaa.gov/csd/news/2013/144_0930.html

[ROED] Walter Roedel. Physik unserer Umwelt: Die Atmosphäre. ISBN 978-3-540-67180-0

[SCHM] Schmidt, G. A.; R. Ruedy; R. L. Miller; A. A. Lacis (2010), "The attribution of the present-day total greenhouse effect" (PDF), J. Geophys. Res., 115, Bibcode:2010JGRD..11520106S, doi:10.1029/2010JD014287

[STEP] Stephens et al. The albedo of Earth. http://webster.eas.gatech.edu/Papers/albedo2015.pdf

[TREA] http://www.theresilientearth.com/files/images/Greenhouse_Gas_Absorption-dlh.png

[WIC1] https://commons.wikimedia.org/wiki/File:Sonne_Strahlungsintensitaet.svg   abgerufen am 10.9.2016

[WIC2] https://commons.wikimedia.org/wiki/File:Ice_Age_Temperature_de.png…abgerufen am 11.9.2016

[WILU] https://de.wikipedia.org/wiki/Luft …abgerufen am 30.8.2016

[WIME] https://commons.wikimedia.org/wiki/File:Albedo-R%C3%BCckstrahlung_Infografik.png ….heruntergeladen am 4.9.2016

[WITE] https://en.wikipedia.org/wiki/Greenhouse_gas    abgerufen am 30.8.2016

[WITR] https://de.wikipedia.org/wiki/Treibhausgas….abgerufen am 30.8.2016

[WONA] http://isccp.giss.nasa.gov/role.html….abgerufen am 4.9.2016




Polen bannt die Windenergie und verdoppelt die Förderung der Kohlekapazität, um die Lichter nicht ausgehen zu lassen

Bild rechts: Standardreaktion der Windindustrie auf einschränkende Regeln.

Schlimmer noch für polnische Windverehrer, konfrontiert mit einer erratischen Stromversorgung und steigenden Preisen, hat ihre Regierung beschlossen, die Unterstützung der Kohleindustrie und – Energie Erzeugung zu verdoppeln, damit „die Lichter nicht ausgehen“.

Polen meidet Wind und verdoppelt die Subventionen in zuverlässiger Kohleenergie zur Sicherung seiner Zukunft

Powermag, Autor Sonal Patel

1 August 2016

Polen, ein Land, in dem Stein- und Braunkohlekraftwerke derzeit etwa 85% der Energie erzeugen, hat ein Gesetz verabschiedet, das eine Windkraft Expansion stigmatisiert und grübelt jetzt über Gesetzesentwürfe, die helfen, Investitionen in neue Kohlekapazitäten zu steigern.

Das osteuropäische Land hat dem Trend zu erneuerbaren Energien abgeschworen, dem viele Länder auf dem Kontinent folgen. Als Grund nennen sie die Energiesicherheit. Polen gehört zu den energieintensivsten Volkswirtschaften in der Europäischen Union (EU) und es hat eine der am stärksten abgeschotteten Stromnetze.

Die Temperaturspitzen im letzten Sommer zeigten, wie angespannt die Stromversorgung der Nation ist.

Im August 2015, als eine dauerhafte Hitzewelle die verfügbaren Wassermengen für die Kraftwerkskühlung reduzierte, wurden einige Kraftwerke gezwungen runterzufahren oder wurden nur bei reduzierter Leistung betrieben.

Gepaart mit anderen unerwarteten Kraftwerksabstellungen, wurde der staatliche Netzbetreiber Polskie Sieci Elektroenergetyczne aufgefordert, temporäre Beschränkungen für den Stromverbrauch einzuführen. Mehr als 1.600 Kunden, vor allem die Industrie, wurden davon betroffen.

Bełchatów Power Station.

Bild: powermag.com/wp-content/uploads/2016/08/pwr_080116_gm_fig3.jpg

 Vorstehendes Bild: Wenn ein Riese ausfällt

Eine längere Hitzewelle im August 2015 senkte die Wasserstände in den Flüssen und Seen, so dass einige konventionelle Krafteinheiten aufgrund von Problemen mit der Kühlung gezwungen waren zu abzuschalten oder mit reduzierter Leistung zu arbeiten.

Die Leistungssystemreserven des abgeschotteten Stromnetzes wurden durch das abrupte Abschalten des landesweit größten Braunkohlekraftwerk Belchatow – Bild oben – nach einem technischen Defekt gefährlich vermindert..Mit freundlicher Genehmigung: Wikimedia Commons / Morgre

Das polnische Stromsystem wird wahrscheinlich nur mit Beschränkungen weiterbetrieben werden können, bis neue Projekte ans Netz gehen.

Zwischen 2017 und 2019 sind mehrere neue Kohle-Einheiten geplant, einschließlich des staatlichen 1,8-GW-Werk in Opole, der Polska Grupa Energetyczna, des Eneas 1-GW-Projekt in Kozienice und der 900-MW-Anlage in Jaworzno, der Tauron Polish Energy.

Die Regierung erklärt, dass Polen dringend noch mehr Kapazität benötigt, weil mehr als 75% der bestehenden Kraftwerke mehr als 26 Jahre alt sind und die Nachfrage nach Energie sprunghaft zugenommen hat. Aber Investitionen wurden wegen zu niedrigen [Strom-] Großhandelspreisen, freier Kohlenstoff Zertifikate und steigendem Anteil erneuerbarer Energien in der EU rückläufig.

Mehrere Kohle und Erdgas-Kraftwerke, die in der Entwicklung waren, wurden auf Eis gelegt. Der Energiesektor hat die Regierung aufgefordert, irgendeine Form von Kapazitätszahlungen einzurichten, um die Rentabilität der Einheiten im Bau zu stützen, wenn die Marktbedingungen, wie erwartet, bis 2020 gedämpft bleiben.

Inzwischen hat die Regierung beträchtliche Subventionen für eine Reihe von polnischen Kohleminen gewährt, die nicht in der Lage sind mit Importkohle zu konkurrieren. Eine Rücknahme der Reform ist unwahrscheinlich, für einen Kohlesektor, in dem 130.000 Menschen beschäftigt sind, konzentriert vor allem in der Industrieregion Oberschlesien.

Es überrascht nicht, dass die neue Regierung – dominiert von der konservativen Partei Recht und Gerechtigkeit, der langjährigen liberal-konservative Bürgerplattform im letzten Oktober-widersteht und die ehrgeizigen EU-Klimaziele verdrängt. Dafür wurde die Regierung auch in letzter Zeit beschuldigt, die Perspektiven des Landes für erneuerbare Energien durch Favorisierung des Kohlesektors zu sabotieren.

Ende Juni unterzeichnete der Präsident ein umstrittenes Gesetz, das den Bau von Windparks in der Nähe von Nationalparks und Wohngebieten verbietet und fordert von Betreibern von Windparks die Erneuerung der Betriebslizenz alle zwei Jahre und die Sicherzustellung, dass die [bestehenden] Windkraftgeneratoren repariert oder modernisiert werden.

Die Ratingagentur Moody sagte, das Gesetz werde die Investitionen in erneuerbare Energien bremsen, die gehaltene Reserve-Kapazität verschärfen und die Bemühungen Polens erschweren, bis zum Jahr 2020 15% seiner Leistung im Rahmen eines EU-Mandat aus erneuerbaren Energien zu erzeugen (derzeit 13% aus erneuerbaren Energien).

Polen wird sich wahrscheinlich auf Biomasse und Biogas verlassen, um die Lücke zu füllen. Zur gleichen Zeit werden die Gesetzgeber die Entwürfe der Gesetzgebung entwickeln, um Investitionen für mehr Kapazität im Kohlekraftsektor zu stimulieren. Laut Reuters wird der Gesetzentwurf in diesem Herbst veröffentlicht werden.

Auch in Polen ist es ein Flop

Bild: stopthesethings.files.wordpress.com/2016/05/turbine-collapse-ireland.jpg

Erschienen am 06.09.2016 auf Stopthesethings

Übersetzt durch Andreas Demmig

 https://stopthesethings.com/2016/09/06/poland-bans-wind-power-orders-a-double-helping-of-coal-to-keep-the-lights-on/




Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht

Die konventionelle Landwirtschaft hatte ein ganz kleines bisschen weniger Ertrag, als im letzten Jahr des „Klima-Menetekels“. Deshalb jammert sie (wegen einem Prozent weniger gegenüber dem Höchstertrag) wie üblich, wies aber Erträge aus, welche einfach weiterhin nur hervorragend waren:

Anm.: Nicht Deutschland, aber zur Information, wie das angebliche CO2-Gift den Weizenertrag fördert, obwohl Amerikas Westen angeblich durch den Klimawandel „verbrennt“:
dlz Agrarmagazin: USA: So soll sich die diesjährige Weltweizenernte nur noch auf rund 727 Mio. t belaufen und damit das zweithöchste Niveau erreichen. Das wären ein Prozent oder rund 7 Mio. t weniger als 2015.


Bild 1 Getreide Welt. Quelle: Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

Auch für Deutschland lässt sich das bekannte Frankenlied synonym verwenden, allerdings mit einer modernisierten Erweiterung:

So viel Korn ist zu verladen, dass auf des Maines Flut die Lastkähne in Stau geraten

Damit bestätigen die letzten Ernten, was bereits in „Ernteerträge und Klimawandel“ berichtet wurde: Die Erträge übersteigen laufend alles bisher da gewesene. Von einem negativen Klimawandel-Einfluss wirklich nirgends eine Spur.

Was nicht bedeutet, dass Bauernpräsidenten nicht umso dreister gegen alle Fakten (bzw. gegen die wegen Überangeboten zu niedrigen Weltmarktpreise) jammern, was das Zeug hält.

[2] Berlin – Die Ernte in Deutschland fällt diesmal drastisch schlechter aus
Vielen Ackerbauern geht das Geld jetzt auch aus», sagte Bauernpräsident Joachim Rukwied bei der Vorlage einer Erntebilanz.
Wegen ungünstigen Wetters zeichnet sich bei Getreide ein Minus von elf Prozent auf 43,5 Millionen Tonnen ab – weniger waren es zuletzt vor fünf Jahren. Auch bei Raps dürften mit 4,5 Millionen Tonnen elf Prozent weniger hereinkommen als im Vorjahr. Angesichts niedriger Weltmarktpreise für viele Produkte hoffen die Landwirte auf mögliche weitere Krisenhilfen des Staates von 100 Millionen Euro.

DER SPIEGEL: Ernte 2016: Regen, Pilze, Krankheiten – schlechtes Wetter lässt Bauern verzweifeln Der verregnete Sommer sorgte bei Kartoffeln für Probleme mit Pilz- und Infektionskrankheiten. "Wir sind froh, dass wir heute mit Pflanzenschutzmitteln, die Pilzinfektionen bekämpfen können. Hätten wir diese nicht gehabt, gäbe es in diesem Jahr keine Kartoffeln", sagte Rukwied dem Bayrischen Rundfunk.

Was für einen Bauerverbands-Präsidenten „drastisch schlechter“ bedeutet, kann man in der offiziellen Ertragstabelle sehen. Die Abweichungen vom hohen Mittelwert der Jahre 2010 – 2015 sind in der Regel so minimal, dass es kaum gemessen werden kann. Interessant ist nur, dass die Erträge im angeblichen Katastrophenjahr 2015 bis auf Sommerweizen und Hafer durchgehend noch besser waren. Lediglich aufgrund der extrem guten Ergebnisse des Jahres 2015 ergeben sich nun moderate Minderungen:

  

Bild 2 Getreide Deutschland 2016, Daten aus dem Schaubild 1 im BFEL-Bericht vom Autor tabelliert und erweitert. Quelle: Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

Selbst der Hopfen, nach den Grünen und Prof. H. Lesch ein angeblich untrüglicher Indikator für den schlimmen Einfluss des Klimawandels „Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?“, spielt das grüne Klimaspiel nicht mit:

Bild 4 Deutschland Hopfenerträge. Daten für 2016 vom Autor ergänzt (rot). Quelle: LfL Jahresbericht 2015 Sonderkultur Hopfen

Und nicht einmal die gemeldeten, angeblich immer schlimmeren Ertragsschwankungen zeigen sich bei einer Nachschau: „Schlechte Erntejahre kommen ganz offenbar immer häufiger

Einfügung: Gerade vor dem Wegschicken kam auf EIKE die Ernteinfo von Herrn Kämpfe:

Die erfreuliche Nachricht: Sehr gute Getreideernte 2016 in Thüringen- wo bleiben die negativen Folgen des angeblichen „Klimawandels“?

welche die Darstellungen bestätigt.

Trotzdem wird von Experten unbekümmert simuliert. Und im Computer sinken die Weizenerträge kontinuierlich. Wenn man feststellt, dass die Simulationen nicht mit den realen Daten übereinstimmen, werden viele Simulationen erzeugt und dann gemittelt – mangels Unabhängigkeit ein eklatanter, statistischer Fehler – beim Klimawandel aber erlaubt, falls sich nur so ein Alarm erzeugen lässt. Und wie früher dem Mann auf der Kanzel nicht widersprochen werden durfte, gilt es heute für Ergebnisse von Computersimulationen.

Bundesministerium für Bildung und Forschung, Journalbeiträge:

Rechnen mit der Unsicherheit Starke Einbrüche beim Weizen

Die Forscher verglichen die Ergebnisse von 30 Computermodellen mit experimentellen Daten von Versuchsfeldern in Arizona (USA). Dabei stellten sie fest, dass die Modelle mit zunehmender Temperatur von den Ergebnissen der Feldversuche abwichen. Lediglich der Median aller Modelle kam den im Feld ermittelten Ergebnissen nahe. Daraus schlossen die Forscher, dass ein Modell alleine unter Umständen keine realitätsnahen Prognosen liefern kann, sondern dass die Werte mehrerer Modelle verwendet werden sollten, um Aussagen zu treffen. Ihre Ergebnisse nutzten die Forscher anschließend zu einer Prognose der globalen Weizenerträge bei steigenden Temperaturen: Hier zeigte sich, dass die Erträge mit jedem Grad mehr um etwa sechs Prozent einbrechen werden. Weltweit wären das 42 Millionen Tonnen, etwa ein Viertel des 2013 global geernteten Weizens. Sie stellten zudem fest, dass die Ertragseinbußen beim Weizen bereits bei geringeren Temperaturanstiegen einsetzen, als bisher berechnet wurde.

Während sich die Ernten der gescholtenen Agrarindustrie allen Simulationsergebnissen sogenannter Klimafachleute widersetzen und dank dem sich stetig wandelnden Klima von einer Ertragsspitze zur nächsten eifern, gibt es eine Ausrichtung, welche nach der Ideologie davon nicht betroffen sein soll, aber genau darunter massiv verzweifelt.

Biobauern traf der Sommer 2016 hart

Neue Zürcher Zeitung 4.8.2016: [6] Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?

In einem Jahr wie diesem zeige sich schonungslos, dass diese ökologisch geprägte Politik nicht aufgehe. An Zürcher Sammelstellen zeige sich bezüglich der Getreideernte «der blanke Horror»: Vor 150 Jahren hätte eine solche Missernte ein Hungerjahr bedeutet, sagt Haab, jetzt müsse halt stärker auf das Ausland gesetzt werden. Dies sei die Quittung dafür, dass Bauern mit Beiträgen vom Bund im Rahmen des Extenso-Programms und mit IP-Suisse-Geldern davon abgehalten würden, ihre Weizen wirksam vor Pilzbefall zu schützen.
Bauern, die extensiv produzierten, also ohne Einsatz von Fungiziden, hätten einen Ernteausfall von rund 40 Prozent zu verkraften, konventionelle Produzenten einen solchen von 20 bis 25 Prozent, sagt er.

DIE WELT 11.08.16: [5] Ernteausfälle bei Bio-Gurken im Spreewald
Ein Betrieb aus Steinreich (Dahme-Spreewald) etwa beklagt bei Bio-Schälgurken Ernteausfälle von 70 Prozent. Grund sei eine Pilzkrankheit. Die EU stufte vor Jahren ein Mittel dagegen, das im Ökolandbau angewendet durfte, als Pflanzenschutzmittel ein. Damit darf es nicht mehr auf die Felder
.

Frankfurter Rundschau 21. Juli 2016: Kleine Körner, faule Kartoffeln
Auch Kartoffeln dürfte es dieses Jahr weniger geben. Die Kraut- und Knollenfäule wütet, eine Pilzkrankheit, die ebenfalls durch Nässe ausgelöst wird. „Auf manchen Äckern gibt es Einbußen bis zu 100 Prozent“, sagt Weber.

[3] Insbesondere für die Erzeuger von Biokartoffeln war die Ausbreitung des Krautfäuleerregers Phytophthora infestans ein großes Problem; im Ökoanbau wurde auch ein vermehrtes Auftreten von Kartoffelkäfern beobachtet.

topagrarONLINE, 09.08.2016: Bio-Kartoffelbauern in der Pfalz drohen 100 Prozent Ernteausfall
Feucht-warme Witterung begünstigt die Krankheit und kann zu Ertragsverlusten von 20 bis 40 % oder sogar zu Totalschaden führen. Die Behandlung mit Kupfer, die im Bio-Anbau bis zu einer bestimmten Grenze pro Hektar erlaubt ist, greift bei häufigen Niederschlägen nicht, weil das Kupfer sofort wieder von der Pflanze abgewaschen wird und damit wirkungslos bleibt. Andere Pflanzenschutzmittel, wie zum Beispiel das systemisch wirkende und komplett abbaubare Kaliumphosphonat, sind beim Bio-Anbau nicht erlaubt.
Die Ökobauern befinden sich aufgrund des dauerhaft feuchten Wetters im Frühjahr und Frühsommer 2016 in einer Zwickmühle. Entweder sie verlieren ihr
Biosiegel oder die komplette Ernte.

Welch gewaltigen Ertragunterschiede schon „im normalen Mittel“ bestehen, zeigt ein Artikel von „agrar heute“. Und er zeigt, dass der Biolandbau im Vergleich nicht besser, sondern schlechter wird. Die Daten stammen vom inzwischen grün eingefärbten Landwirtschaftsministerium, somit dürften sie nicht allzu weit daneben liegen.

agrar heute 07.01.2016:  Öko-Erträge fallen weiter zurück – vor allem beim Raps

Die Datengrundlage lieferte das sogenannte Testbetriebsnetz des Bundeslandwirtschaftsministeriums. Hier werden repräsentative Daten von Betrieben beider Bewirtschaftungsformen unter ähnlichen Bedingungen (u. a. Betriebsgröße, Standort) erhoben und verglichen.

Bild 5 Mehrerträge im konventionellen Landbau gegenüber Ökolandbau. Quelle: agrar heute, ausgabe 07.01.2016:  Öko-Erträge fallen weiter zurück – vor allem beim Raps

Natürlich finden sich beliebig viele Veröffentlichungen, welche das Gegenteil beweisen. In aller Regel gelingt dies, indem „Umweltkosten“ und vor allem auch „Klimaschutz-Nutzen“ monetär bewertet und zugerechnet werden.

Nutzen von Pflanzenschutzmitteln

Man sollte meinen, diese Tatsachen würden zwar nicht Biophantasten, aber wenigstens offizielle Verantwortliche überzeugen. Dem ist aber nicht so. Berliner Ideologie und Frau Hendricks kann keine Krautfäule überzeugen. Was ideologisch als böse festgelegt ist, muss bestraft werden.
Klimaretter.Info 08.09.3015: "Heutige Landwirtschaft ist auch nicht gut für Bauern"

(Anm.: Frau Hendricks)auf Pflanzenschutzmittel soll es künftig eine Abgabe geben.

Die Natur hat auf den Menschen noch nie Rücksicht genommen

Das gesamte, vorherige Kapitel zieht es sich wie ein roter Faden hindurch: Ohne moderne Pflanzen-Schutzmaßnahmen geht in feuchteren Jahren ein erheblicher Teil der Ernte verloren.
Im Artikel: Biobauern darben ohne Klimawandel wurde es schon einmal thematisiert.

Eine Illusion der Grünen ist, Natur wäre grundsätzlich „gütig“. Dieses Jahr zeigte wieder, wie sie wirklich ist.

TELEPOLIS 22.08.2016: [4] Kartoffelernte würde ohne Pflanzenschutzmittel weitgehend ausfallen
Welche Folgen Missernten ohne Pflanzenschutzmittel haben, konnte man Mitte des 19. Jahrhunderts sehen: Damals sorgte der Kartoffelmehltau (Phytophthora infestans) dafür, dass die Ernten in Europa in den Jahren 1845 und 1846 deutlich zurückgingen: In Preußen beispielsweise um 47, in Württemberg um 55, in Dänemark um 50, in Schweden um 20 bis 25, in Frankreich um 20, in den Niederlanden um 71, in Belgien um 87 und in Irland um 88 Prozent zurückging.
Dort, in Irland (und in den schottischen Highlands), hatte der Ernterückgang die verheerendsten Folgen, weil man auf etwa einem Drittel der bebaubaren Fläche Kartoffeln anbaute, während man in Württemberg nur 3 bis acht Prozent dafür nutzte. Deshalb verhungerten auf der Insel zwischen 1845 und 1852 mindestens eine Million Menschen. Weitere ein bis zwei Millionen entkamen dem Hungertod nur dadurch, dass sie auswanderten – vor allem in die USA. Am Ende der Hungersnot lebte in Irland ein Fünftel bis ein Viertel weniger Menschen als vorher.

Damit sind die Grünen mit den Biobauern die größten Lebensmittel-Vernichter

Zitierungen aus einem lesenswerten Artikel, von dem die Überschrift zu diesem übernommen wurde.

Novo Argumente, Ludger Wes: [1] Schluss mit der Lebensmittel-Verschwendung
Oft wird den Discountern und Verbrauchern unterstellt, sie würden in großem Maße Lebensmittel verschwenden. Doch an anderer Stelle werden viel mehr Lebensmittel verschwendet.
Verschwendung Biolandbau
Aufmerksame Leser ahnen es: Es geht um den Biolandbau. Der hat in diesem Jahr bei Kartoffeln, Wein, Weizen und Gurken extreme Ernteausfälle zu verzeichnen; in einzelnen Regionen verdarben 30-50 Prozent der Ernte, in anderen 100 Prozent. Als Ursache geben die Ökobauern das feuchte Wetter an, das das Wachstum von Schädlingen wie dem Falschen Mehltau oder der Kraut- und Knollenfäule begünstigt habe.
Das ist jedoch nur die halbe Wahrheit. Unter der Witterung hatten auch konventionell arbeitende Bauern zu leiden. Doch ihre Ertragseinbußen waren weitaus geringer, dank moderner Pflanzenschutzmittel.

Ernteverlust durch Agrarwende
Andreas von Tiedemann, Professor für Pflanzenpathologie und Pflanzenschutz an der Universität Göttingen, rechnete kürzlich bei einem
Vortrag in Göttingen vor, dass Weizen, Reis, Mais, Kartoffeln und Soja etwa 90 Prozent der Weltnahrungsmittel ausmachen. Pro Jahr geht etwa ein Drittel davon durch Krankheiten und Schädlinge verloren. Ohne Pflanzenschutzmittel wären es zwei Drittel. Verluste bei Lagerung und Transport sind dabei noch nicht eingerechnet.
Von Tiedemann erinnerte daran, dass die Gelbrost-Epidemie, die sich seit 2010 in Europa ausbreitet, ohne den Einsatz von Pestiziden 60 Prozent der hiesigen Weizenernte vernichten würde. Ohne Pflanzenschutzmittel würde für Weizen, Gerste, Raps und Kartoffeln eine doppelt so große Anbaufläche benötigt, um die gleichen Erträge wie mit Pestiziden zu erzielen. Die von der Partei Die Grünen und von Umweltschützern geforderte Agrarwende mit Umstellung auf 100 Prozent Bio würde, so von Tiedemann, einen Ernterückgang von 20 bis 50 Prozent bedeuten. In diesem Jahr würden deutsche Landwirte dann womöglich gar keinen
Wein, kaum Kartoffeln und Gurken und nur minderwertigen Weizen ernten.

Das Beispiel zeigt: Bio ist eine Luxuswirtschaftsweise für Menschen in Ländern, in denen die Läden von Nahrungsmitteln überquellen. Menschen in solchen Ländern können es sich leisten, Feldfrüchte auf Hunderttausenden von Hektar vergammeln zu lassen. Mutwillig auf bewährte, jahrelang getestete Pflanzenschutzmittel zu verzichten, bedeutet, die Verschwendung von Ressourcen und Lebensmitteln in großem Maßstab in Kauf zu nehmen. Wer so handelt, hat kein Recht, Unternehmen und Menschen zu verurteilen, die Lebensmittel wegwerfen.
Es scheint also, dass die Verschwendung von Nahrungsmitteln im Ökolandbau zur Standardpraxis gehört. Dank der hohen Preise lässt sich auch dann noch Geld verdienen, wenn ein Großteil der Ernte den Schädlingen überlassen wird. Gelebte Nachhaltigkeit?

Das Klima des Jahres 2016

In einigen Publizierungen wurde das Wetter dieses Jahres und die langfristige „Einsortierung“ bereits dargestellt:

Klima-Monatsrückschau August 2016

Im Klimawandel nicht Neues, der Juli 2016 war im Mittel wieder zu warm

Nachdem vor allem die Feuchte den Biobauern zu schaffen machte, anbei die Niederschlagsdaten der Vegetationsperiode. Dieser lag dieses Jahr im Vertrauensbereich der Mittelwerte und innerhalb eines Bereiches, der dem Wert seit 1881 entspricht. Und trotzdem war es für die Biobauern bereits ein Fiasko. Was passiert erst, wenn das Wetter wie von den Grünen gefordert, noch schlechter wird?


Bild 6 Niederschlag Deutschland Frühling von 1881 – 2016. Vom Autor aus dem DWD-Datensatz erstellt

Bild 7 Niederschlag Deutschland Sommer von 1881 – 2016. Vom Autor aus dem DWD-Datensatz erstellt

An den Niederschlagsdaten kann man natürlich auch sehen, dass der ominöse Klimawandel in Deutschland bis auf einen geringen Anstieg der Temperaturen (nachdem vorher eine Kaltzeit war) mit keinem sonstigen Klimaparameter feststellbar ist. Da die Daten bis zum August 2016 reichen, lässt sich das Gerede immer weiter steigender Niederschläge (wärmer = mehr Niederschlag) auch in das Land der Klimafabeln verweisen. Jedenfalls lässt sich weder für den Frühling noch den Sommer ein statistischer Unterschied zum Beginn der Messreihe im Jahr 1881 feststellen. Auch die Variabilität nimmt nicht zu, wie es die goldenen Jahres-Differenz-Werte seit 1881 zeigen.

Bonner Politik ist inzwischen zur reinen Umsetzung von Ideologie verkommen

Von der Idee, sich an der Wirklichkeit zu orientieren und dazu glaubhafte Politik zu machen, haben sich die Koalitionsparteien längst verabschiedet. Es ist unfassbar, wie schnell, problemlos und konsequent es einer in Agitation geschulten Person gelang, eine komplette Parteienlandschaft zum reinen Marionettentheater zu degradieren – und wie unsere „Eliten“ wieder dazu überlaufen.
Nun war das Thema Landwirtschaft schon immer fest in Lobbyisten-Hand. Aber nun wird dies selbst in den C-Parteien im Bemühen, die Grünen unbedingt überholen zu müssen, stur um eine ideologische Komponente erweitert: Bayerischer Klimakongress 2016 in Würzburg.

Was auf Landesebene gilt, gilt natürlich auf Bundesebene:

BMEL: Eine Zukunftsstrategie für den ökologischen Landbau

Bei der Kick-Off-Veranstaltung im BMEL in Berlin hat Bundeslandwirtschaftsminister Christian Schmidt am 19. Mai 2015 den offiziellen Startschuss für die Entwicklung der "Zukunftsstrategie Ökologischer Landbau" gegeben. "Die Öko-Landwirtschaft leistet schon heute einen entscheidenden Beitrag zu unserer Ernährung! Ihr Potenzial will ich voll auszuschöpfen!", unterstrich Schmidt.

Umweltbundesamt: Ziel der Bundesregierung ist es, den Ökologischen Landbau in Deutschland weiter zu stärken. Hierzu soll der Anteil der ökologisch bewirtschafteten Fläche an der gesamten landwirtschaftlich genutzten Fläche in Deutschland auf 20 % erhöht werden.

Wie in Berlin aber allgegenwärtig, gibt es Ressorts, welche jeden Unsinn noch wagen zu übertrumpfen. Frau Hendricks will eine Abgabe auf Pflanzenschutzmittel:

Klimaretter.Info 08.09.3015: Hendricks fordert stärkeres Ministerium
"Heutige Landwirtschaft ist auch nicht gut für Bauern"… auf Pflanzenschutzmittel soll es künftig eine Abgabe geben.

Damit nicht etwa noch im Ansatz so etwas Vernunft diese Erntevernichtung und Frau Hendricks Anweisungen topedieren kann, soll es per Machterweiterung geschehen:

Klimaretter.Info 08.09.3015: … Und fordert ein neues Initiativrecht für ihr Haus – "zur Stärkung der Umweltpolitik des Bundes". Berater empfahlen Hendricks, ein Vetorecht zu fordern

Das würde bedeuten: Die Umweltministerin kann – im Einvernehmen mit der Bundeskanzlerin – verlangen, dass sie sich auch mit Angelegenheiten befassen darf, die eigentlich in den Geschäftsbereich eines anderen Ministeriums gehören.

Wer die Maßnahmen und vor allem unreflektierende Klimahysterie von Frau Hendricks und ihrem Ministerium verfolg, ahnt was das bedeutet: (Noch) denkbare Opposition soll in Zukunft von vornherein ausgeschaltet werden, damit Frau Merkel weiterhin international als Vorreiterin der Klimarettung brillieren kann.

Anmerkung:
Damit soll nicht gesagt werden, dass die industrielle Landwirtschaft in jeder Form immer problemlos und allein selig machend wäre. Aber von einer Seite zur anderen zu überschlagen, sind keine erfolgreichen Zukunftsszenarien.

Die Hopfenbauern machen vor, wie man mit Verzicht auf Ideologie mit gezielter Pflanzenzüchtung und gekonntem (und nicht ideologisch verbotenem) Planzenschutzmittel-Einsatz beides in Einklang bekommen kann.

agrar heute 18.08.2007: Laut dem Industrieverband hat sich gerade beim Hopfen in der Vergangenheit eine erstaunliche Entwicklung vollzogen. Der Ertrag an Alphasäure, der eigentlichen Bierzutat, konnte durch moderne Sorten von 50 auf 400 Kilogramm pro Hektar gesteigert werden. Auch im Pflanzenschutz gab es laut dem Industrieverband beispielhafte Fortschritte. Pilzkrankheiten hätten noch vor 30 Jahren 15 bis 16 Spritzungen im Jahr erfordert. Seither sei in der Hallertau ein raffiniertes Vorhersagesystem für Pilzkrankheiten entwickelt worden. An zahlreichen Beobachtungsstellen werde täglich die Anzahl der Pilzsporen ermittelt. Erreichen sie eine bestimmte Schwelle, werden die Hopfenpflanzer per SMS oder Fax informiert, dass sie eingreifen müssen. Dadurch hätten die Spritzungen bei den modernen toleranten Sorten auf zwei bis vier in der Vegetationsperiode reduziert werden können.

Quellen

[1]
Novo Argumente, Ludger Wes: Schluss mit der Lebensmittel­verschwendung
https://www.novo-argumente.com/artikel/schluss_mit_der_lebensmittelverschwendung

[2]
WELT, 19.08.2016: Schlechte Ernte 2016 bringt Bauern in Bedrängnis
https://beta.welt.de/newsticker/dpa_nt/infoline_nt/wirtschaft_nt/article157749020/Schlechte-Ernte-2016-bringt-Bauern-in-Bedraengnis.html?wtrid=crossdevice.welt.desktop.vwo.google-referrer.home-spliturl&betaredirect=true

[3]
Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

[4]
TELEPOLIS 22.08.2016: Kartoffelernte würde ohne Pflanzenschutzmittel weitgehend ausfallen
http://www.heise.de/tp/artikel/49/49188/1.html

[5]
DIE WELT 11.08.16: Ernteausfälle bei Bio-Gurken im Spreewald
http://www.welt.de/regionales/berlin/article157605956/Ernteausfaelle-bei-Bio-Gurken-im-Spreewald.html

[6]
Neue Zürcher Zeitung 4.8.2016: Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?