4. Bürgerschutz-Tag Frankfurt/M Sonntag 16.10.2016 – 13.00 – 18.00 Uhr

Programm:

13.00 – 14.00 Uhr

Individuelle Beratungsmöglichkeit an den Infoständen der Verbraucherschutzvereine, Aktionsgruppen u. Sachverständigen

14.00 – 14.15 Uhr:

Begrüßung durch die Veranstalter

Referate und Diskussionen

Schwerpunktthema 1:

Pro und Kontra: „Basiert die Gesetzgebung zur CO2-Reduzierung und die sich daraus ergebende Kostenbelastung des Bürgers auf wissenschaftlichen Beweisen und sind sie damit gerechtfertigt?“

14.15 – 14.45 Uhr:    

Pro: Ja, der Bürger kann mit seiner CO2-Verringerung das Klima positiv beeinflussen!

Referenten: Politiker A und Fachmann B, (werden noch genannt)

Kontra: Nein, das ist falsch und reine Bürger-Abzocke!

14.45 – 16.00 Uhr:

Dr. Wolfgang Thüne, Dipl.-Meteorologe:

 „30 Jahre Warnung und keine „Klimakatastrophe“ in Sicht.“                                                   

Dipl. Ing. Michael Limburg, Vizepräsident des Europäischen Instituts für Klima und Energie e.V.: 

Welche Wirkung haben deutsche CO2– Reduktionen auf das Weltklima?“ 

(Unter Verwendung der Hypothesen des IPCC (Weltklimarat))

Dipl.-Ing- Architekt Konrad Fischer, aus dem TV bekannter Dämmkritiker: 

Die Fassadendämmung beeinflusst weder Wetter noch Klima und lohnt sich auch sonst nicht!

16.00 – 16.30 Uhr: 

Diskussion und Fragenbeantwortung zum Schwerpunktthema 1

Schwerpunktthema 2:

Kann sich der Bürger juristisch vor unwirtschaftlichen energetischen Maßnahmen schützen? 

16.30 – 16.45 Uhr

Norbert Deul, Vorstand Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.:

 Unterschiedliche Rechte für Eigentümer und Mieter bei der energetischen Modernisierung: Befreiungsmöglichkeit nach § 25 EnEV für den Eigentümer und zahlen bis zum Lebensende für den Mieter nach § 559 (1) BGB!

16.45 – 17.15 Uhr

Prof. Dr. Martin Schwab, Universität Bielefeld:

Rechtsgutachten – "Energetische Modernisierung: Um jeden Preis? Auf Kosten des  Mieters?“

17.15 – 17.40 Uhr

Horst Trieflinger, Vorsitzender des Vereins gegen Rechtmissbrauch e.V.:

"Forderungen an die Politik, damit Rechtsprechung und Anwaltschaft besser werden."

17.40 – 18.00 Uhr

Diskussion und Fragenbeantwortung zum Schwerpunktthema 2 sowie Verabschiedung

Siehe auch pdf Datei im Anhang (aktualisiert 22.9.16)

Hinweise zum Veranstaltungsort:

Der moderne Saalbau in Frankfurt-Bornheim ist mit den öffentlichen Verkehrsmitteln und mit dem Auto gut erreichbar (Parkplätze in der Tiefgarage).

Bewirtung im Gebäude vorhanden.

Übernachtung in unmittelbarer Nähe für Anreisende möglich (Info beim Veranstalter).

Anmelden beim Organisator:
Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.
Tel.: 09154/1602, Fax: 09154/914721, E-Mail: hausgeld-vergleich@t-online.de

Anmeldungen bis zum 5.10.2016 erhalten eine Platzreservierung

sowie kostenfrei den Ratgeber „9 Fragen zum Klimaschutz“ von Prof. Dr. Horst-Joachim Lüdecke.

Diese Fragen werden im Ratgeber beantwortet:

Was ist Klima, was „Klimaschutz“?

Was ist „anthropogene globale Erwärmung“?

Ist das heutige Klima extrem?

Gibt es eine vom Menschen gemachte Klimagefahr?               

Gibt es einen wissenschaftlichen Klimakonsens?

Ist CO2 (Kohlendoxyd) schädlich?

Wie relevant ist die deutsche CO2-Vermeidung für die Welt insgesamt?

Wer profitiert vom „Klimaschutz“?

Was sind die Ursprünge des Klimaglaubens?

Related Files




Ein Kartenhaus aus Unwahrheiten CO2: Statt „Klima-Tiger“ lediglich ein Bettvorleger

Bild rechts: Wolken und Wasserdampf werden durch die heute verfügbaren Programme zur Simulation des Klimas gar nicht, falsch oder mit viel zu geringer Genauigkeit berücksichtigt. Somit sind alle heutigen Klimaprognosen falsch.

Die Theorie von der menschengemachten katastrophalen Erderwärmung (AGW, Anthropogenous Global Warming) ist, wenn man ihre Auswirkungen auf Politik und Zivilisation betrachtet, tatsächlich schon per se eine Katastrophe. Hinzu kommt, dass sie aus einer bösen Tat – der Verbreitung von Unwahrheiten – resultiert. Auf diese Unwahrheiten trifft sehr exakt das zu, wovor bereits Schiller mit seinem berühmten Spruch aus dem Wallenstein-Drama gewarnt hatte: „Das eben ist der Fluch der bösen Tat, dass sie, fortzeugend, immer Böses muß gebären“. Im Fall der angeblichen Bedrohung des Weltklimas durch CO2 bedeutet dies, dass man zur Deckung der ersten Lüge immer neue zusätzliche Ausflüchte erfinden muss, um die Widersprüche, die sich aus der ursprünglichen Unwahrheit ergeben, „wegzuerklären“. Kriminalbeamten ist diese Vorgehensweise aus Verhören „kreativer“ Verdächtiger bestens bekannt, wenn diese versuchen, Unstimmigkeiten ihrer ersten Aussage durch immer neue Falschbehauptungen zu maskieren.

Die Energiebilanz der Erde

Nahezu die gesamte Energie, welche die Erde mit der Sonne und dem Weltall austauscht, wird durch Strahlung transportiert. Die Gesetze der Physik legen fest, dass jeder Körper, der im Vakuum des Weltalls Energie in Form von Strahlung empfängt, diese irgendwann wieder durch Strahlung abgeben muss. Anderenfalls würde seine Temperatur immer weiter ansteigen, da wegen des Vakuums die zugeführte Energie nicht durch Wärmeleitung abführen kann. Die entsprechende Energieabstrahlung erfolgt bei festen und flüssigen Körpern bei jeder Temperatur oberhalb des absoluten Nullpunkts ständig. Das Wellenlängenspektrum der ausgesandten Strahlung hängt vor allem von der Temperatur der Körperoberfläche ab. Fall keine nennenswerte Energiezufuhr von innen erfolgt, stellt sich an der Oberfläche dasjenige Temperaturniveau ein, bei dem empfangene und abgegebene Strahlungsenergie gleich groß sind. Ein solcher Körper befindet sich dann im Strahlungsgleichgewicht mit seinem Umfeld. Im Falle der Erde besteht dieses aus einer sehr heißen Sonne, einem unbedeutenden Mond sowie einem ziemlich „kalten“ Weltraum. Bei der Sonne führt die hohe Oberflächentemperatur dazu, dass diese den Löwenanteil ihrer Strahlungsenergie im Bereich des sichtbaren Lichts emittiert, Bild 1.


Bild 1. Intensität der Sonnenstrahlung bei AM0 (erdnaher Weltraum) und AM1,5 (etwa zum Zenit in Karlsruhe) im Vergleich zur Emission eines idealen Schwarzen Körpers bei einer Temperatur von 5900 K (Grafik: Degreen/ Baba66, Wikimedia Commons [WIC1])

Die Erde strahlt dagegen aufgrund ihrer wesentlich niedrigeren Temperatur fast ausschließlich im infraroten Bereich ab Wellenlängen von etwa 3,5 µm. Für diesen Spektralbereich ist die Atmosphäre wesentlich weniger transparent als für sichtbares Licht. Dies liegt nicht an den Hauptbestandteilen Sauerstoff, Stickstoff und Argon: Diese sind auch für Infrarotstrahlung zumeist ziemlich transparent. In der Atmosphäre gibt es jedoch eine Reihe von Spurengasen wie CO2, Wasserdampf und Methan, deren Moleküle mit jeweils bestimmten Wellenlängen des infraroten Spektrums Energie austauschen können. Diese Gase wirken deshalb wie Filter, die den Strahlungsfluss der IR-Strahlung in jeweils spezifischen Wellenlängenbereichen verringern, indem sie entsprechende Strahlungsquanten absorbieren. Die absorbierte Energie wird in den Gasmolekülen in Form mechanischer Energie (Molekülschwingungen) zwischengespeichert und später wieder abgegeben, oft nicht als Strahlung, sondern als kinetische (thermische) Energie an die Moleküle anderer Gase. Andererseits können diese Moleküle auch kinetische Energie, die ihnen z.B. durch elastische Stöße anderer Moleküle zugeführt wird, in Form von Strahlung wieder aussenden. Die IR-Absorptionsbanden dieser Gase überlagern sich im wichtigen Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein kleines Strahlungsfenster zwischen etwa 8 – 12 µm offen bleibt, Bild 2.


Bild 2. Die IR-Absorptionsbanden der „Treibhausgase“ überlagern sich im Wellenlängenbereich von 3,5 – 30 µm so dicht, dass nur ein schmales „atmosphärisches Fenster“ zwischen ca. 8 und 12 µm offen bleibt (Grafik: [TREA])

Bild 3 zeigt die Energieflüsse, die sich aus Sicht des IPCC aufgrund dieses Strahlungsaustauschs im Bereich der Erdatmosphäre und der obersten Boden- und Wasserschichten ergeben.


Bild 3. Strahlungs- und Energiebilanz der Erde laut IPPC (Grafik: [IP02])

Zum Verständnis ist anzumerken, dass die Zahlenangaben sich auf globale Durchschnittswerte beziehen, also keine Unterschiede zwischen Äquator und Polen berücksichtigen. Ausgangspunkt ist die durchschnittliche Intensität der Sonneneinstrahlung an der Grenze der Erdatmosphäre, die ziemlich konstant bei rund 1.367 W/m2 liegt. Da die Sonne jedoch jeweils nur auf die Tagseite einwirkt und die pro Quadratmeter empfangene Energie aufgrund der Kugelgestalt der Erde zu den Polen hin bis auf Null absinkt, erhält jeder Quadratmeter der oberen Atmosphäre im zeitlichen und räumlichen Mittel lediglich 340 W/m2. Hiervon werden – ebenfalls im Mittel – rund 100 W/m2 direkt zurück ins Weltall reflektiert. Diese reflektierte Strahlungsenergie hat keinen Anteil an den Umwandlungs- und Transportvorgängen an der Erdoberfläche oder in den tieferen Schichten der Atmosphäre.

Die Reflexion ist abhängig von den optischen Eigenschaften der jeweiligen Oberflächen. Charakterisiert wird sie durch den Fachbegriff „Albedo“. Dieser ist eine dimensionslose Größe zwischen 0 und 1. Die Erde hat einen Albedo-Wert von 0,29. Dies bedeutet, dass sie 71 % der auftreffenden Strahlungsenergie absorbiert und 29 % reflektiert. Eine Albedo gibt es übrigens auch für die Emissivität (Emissionsgrad) des gleichen Körpers beim Aussenden von Strahlung. Ein Albedo-Wert von 0,29 für die Emissivität besagt deshalb, dass der betreffende Körper beim Aussenden nur 0,29 x so viel Strahlungsenergie aussendet wie einer, der eine Albedo von 1 aufweist. Zu beachten ist hierbei zusätzlich, dass der Wert der Albedo von der jeweiligen Wellenlänge abhängt. Ein Körper, der im Bereich des sichtbaren Lichts eine Albedo von 0,29 hat, kann bei Abstrahlung im Infrarotbereich unter Umständen eine Albedo von 0,8 oder sogar nahe an 1 aufweisen. Deshalb sollte man sich bei der Kalkulation von Strahlungsbilanzen vergewissern, wie die konkreten Albedowerte für absorbierte und emittierte Strahlung aussehen. Einen Überblick über Absorptions-Albedowerte wichtiger Strukturen auf der Erde und in der Atmosphäre gibt Bild 4


Bild 4. Verschiedene Oberflächen haben eine unterschiedliche Rückstrahlung: Anhand der Landschaft werden ausgewählte Albedowerte dargestellt (Grafik: eskp.de, Creative Commons, [WIME])

Den Löwenanteil der direkt in der Atmosphäre erfolgenden Reflexion (Bild 3) bewirken mit rund 47 W/m2 die Wolken [STEP]. Von der restlichen Strahlung verbleiben noch weitere Anteile in der Atmosphäre oder werden von Boden und Wasser reflektiert, so dass letztlich nur rund 161 W/m2 der solaren Strahlungsenergie auf Bodenniveau absorbiert werden. Die Erdoberfläche gibt diese Energie nahezu vollständig wieder nach oben in die Atmosphäre ab, zum größten Teil in Form von infraroter Strahlung, den Rest in Form fühlbarer Wärme durch atmosphärische Konvektion oder als latente Wärme aufgrund der Verdunstung von Wasser. Die Infrarotstrahlung vom Boden und vom Wasser gelangt wegen des kleinen offenen Strahlungsfensters der Atmosphäre nur zu einem vergleichsweise geringen Anteil direkt in den Weltraum. Ein Großteil wird von den sogenannten Treibhausgasen, vom Wasserdampf sowie von Wolken abgefangen. Ein Teil hiervon wird – häufig mit geänderter Wellenlänge – wieder in Richtung Erdboden zurückgestrahlt, während der Rest letztlich ins Weltall abgegeben wird. Dieser Energietransport erfolgt meist über zahlreiche Einzelschritte mit zwischengeschalteter Umwandlung in andere Energieformen oder Wellenlängen. Es kommt zu Umlenkungen und Richtungswechseln. Zu diesem „Strahlungskreislauf“ tragen auch die bereits erwähnten Wärme- und Verdunstungsanteile sowie die in der Atmosphäre direkt absorbierten Anteile der Sonnenstrahlung bei, welche den Energiegehalt der unteren Atmosphäre erhöhen. Auch diese Energie muss letztlich, wenn sie sich nach oben „durchgearbeitet“ hat, in Form von Wärmestrahlung abgeführt werden.

Entscheidend ist aus Sicht der AGW-Theorie das behauptete Ungleichgewicht der Strahlungsbilanz (Imbalance). Gemeint ist ein kleiner, im Bild 6 unten links eingezeichneter Energiefluss von 0,6 W/m2 (mit einer Streuung zwischen 0,2 und 1,0 W/m2), der nach Auffassung des IPCC langfristig im System Erdoberfläche/ Wasser/ Atmosphäre verbleibt und die behauptete „Klimaerwärmung“ bewirken soll.

Da die reine AGW-Lehre besagt, dass nur das CO2 der Haupt-Bösewicht sein kann und darf…

Schon diese Behauptung, dass nämlich das vom Menschen durch Verbrennung fossiler Rohstoffe in die Atmosphäre eingebrachte CO2 die Hauptursache für eine katastrophale Veränderung des Weltklimas sei, ist grob unwissenschaftlich. Das lässt sich leicht erkennen, wenn man sich die hierzu präsentierten Darstellungen des IPCC (Bild 5) genauer ansieht. In dieser Darstellung wird für die Wirkung der einzelnen Gase bzw. Aerosole ein „Strahlungsantrieb“ (radiative forcing) angegeben. Damit ist die von den „Treibhausgasen“ angeblich durch vermehrte Reflexion infraroter Wärmestrahlung zurück auf die Erdoberfläche verursachte dauerhafte Veränderung der Energiebilanz gemeint.

 

Bild 5. Bezeichnung und angeblicher Strahlungsantrieb der wichtigsten „Treibhausgase“ laut IPCC (Grafik: IPCC AR 2007, [IP01])

In der Summe wird den im Bild 5 aufgeführten Treibhausgasen ein kumulierter „Strahlungsantrieb“ von 1,6 W/m² (Streubereich 0,6 – 2,4 W/m²) zugeordnet. Grundlage der entsprechenden Theorie ist der sogenannte „Treibhauseffekt“ der Atmosphäre. Dieser soll dafür sorgen, dass die Gleichgewichtstemperatur der Erdoberfläche bei 15 °C statt bei lediglich -18 °C (255 K) liegt. Hervorgerufen werden soll dies durch die Rück-Reflexion der von der Erde ausgehenden infraroten Wärmestrahlung durch die „Treibhausgase“, wodurch das Temperaturniveau um 33 °C ansteigen soll. Durch menschengemachte Erhöhung des Anteils dieser „Treibhausgase“ soll die Temperatur jetzt noch deutlich stärker ansteigen. An dieser Stelle sei noch angemerkt, dass dies eine Hypothese ist. Viele Wissenschaftler bestreiten diesen Ansatz und führen aus, dass hierfür bisher noch kein Beweis erbracht werden konnte.

….wird die Rolle des Wassers als entscheidender Faktor einfach unterschlagen

Ein genauerer Blick auf Bild 5 offenbart eine klaffende Lücke, die ein Schlaglicht auf die wissenschaftliche Redlichkeit des IPCC bzw. auf den Mangel an derselben wirft: Das Wasser bzw. der in der Atmosphäre befindliche Wasserdampf fehlt gänzlich, der lächerlich geringe „cloud albedo effect“ von ca. -1,5 W/m² ist ein geradezu groteskes Beispiel wissenschaftlicher Unehrlichkeit. Man vergleiche dies mit den Zahlen, die weiter unten noch aufgeführt werden. Dabei ist Wasserdampf ebenso wie CO2 ein infrarotaktives Gas. Seine Wirkung übertrifft sogar diejenige des CO2 sowie auch die aller anderen „Treibhausgase“ zusammengenommen ganz erheblich. Doch obwohl je nach Quelle zugegeben wird, dass Wasserdampf für 36 bis >85 % des „Treibhauseffekts“ verantwortlich sei, wird es vom IPCC sowie von meinungsführenden Institutionen wie Wikipedia oder der US-Umweltschutzbehörde EPA noch nicht einmal in der Kategorie „Treibhausgase“ geführt. Wichtiger Grund für seine starke Wirksamkeit ist der im Vergleich zu allen anderen „Treibhausgasen“ sehr viel höhere Gehalt in der Atmosphäre. Der Mengenanteil des CO2 in der Atmosphäre liegt nach aktueller Lehrmeinung bei ziemlich genau 400 ppm. Den Unterschied zum Wasserdampfgehalt verdeutlicht die folgende Tabelle:

Aus der Tatsache, dass Wasserdampf vom IPCC trotz seiner IR-Eigenschaften nicht als Treibhausgas gewertet wird, folgt für zahlreiche Vertreter der AGW-Hypothese, die sich möglicherweise noch einen gewissen Rest an Schamgefühl beim Vorbringen wissenschaftlich klar erkennbarer Unwahrheiten bewahrt haben, ein Gewissenskonflikt, der zu einer Vielzahl teils lächerlicher und oft sehr plump vorgetragener Ausflüchte führt. So überschreibt man in der deutschen Ausgabe von Wikipedia den Absatz im Treibhausgas-Beitrag, in dem Wasserdampf behandelt wird, lediglich mit „Weitere zum Treibhauseffekt beitragende Stoffe“. Doch schon im ersten Satz sahen sich die Redakteure anscheinend außerstande, die unwürdieg Scharade weiterzuführen, und sagen klipp und klar: „Wasserdampf ist das wichtigste Treibhausgas. Sein Beitrag zum natürlichen Treibhauseffekt wird auf etwa 60 % beziffert“ [WITR].

Ihre englischsprachigen Kollegen rechnen den Wasserdampf dagegen bereits in der Einleitung zu den wichtigsten Treibhausgasen und stellen fest: „Wasserdampf trägt am meisten zum Treibhauseffekt bei, und zwar zwischen 36 % und 66 % bei klarem Himmel und zwischen 66 % und 85 %, wenn Wolken mit berücksichtigt werden“ [WITE].

Besonders knapp gehalten ist die Erläuterung der US-Umweltschutzbehörde EPA (Environmental Protection Agency), einer Bastion der US-Grünen. Auch auf deren Webseite werden Grafiken über den Einfluss wichtiger, vom Menschen verursachter Treibhausgase gezeigt [EPA], und auch hier wird Wasser(dampf) nicht aufgeführt. Hierzu steht nur lapidar: „Wasserdampf ist ein Gas: Wasser kann als unsichtbares Gas vorkommen, das als Wasserdampf bezeichnet wird. Wasserdampf kommt in der Atmosphäre als natürlicher Bestandteil vor und hat einen starken Einfluss auf Wetter und Klima“. Anschließend folgt noch eine kurze Erläuterung zu seinem angeblich positiven Rückkopplungseffekt aufgrund der verstärkten Verdunstung in einer wärmer werdenden Atmosphäre, was aufgrund der Treibhausgaswirkung des Wasserdampfs zu noch mehr Erwärmung und damit zu einer immer weiter voranschreitenden Erwärmung führen soll.

Eine ganz andere Einschätzung findet man dagegen bei einer Untergliederung der NASA. Zur Erinnerung: Das ist der frühere Arbeitgeber des Dr. Michael E. Mann, der mit seiner hoch umstrittenen „Hockeystick“-Kurve zu einem der prominentesten Frontmänner der AGW-Theorie avancierte. Es gibt dort aber anscheinend auch noch integre Wissenschaftler. Im Goddard Institute for Space Studies (GISS) der NASA beschäftigt man sich im Rahmen des International Satellite Cloud Climatology Project (ISCCP) intensiv mit Klimasimulationen [WONA]. In dieser Veröffentlichung findet sich die bemerkenswerte Aussage, dass Wasserdampf den größten Teil der von der Oberfläche aufsteigenden langwelligen Wärmestrahlung absorbiere und dadurch auch den größten Anteil am Treibhauseffekt habe – der jetzt durch menschengemachte Verschmutzung verstärkt werde. Ohne den Wasserdampf in der Atmosphäre wäre die Erdoberfläche im Mittel um 31 °C (!) kälter als heute. Damit werden dem Wasser mindestens 90 % am gesamten atmosphärischen „Treibhauseffekt“ zugesprochen.

Der angebliche Verstärkungseffekt…

Nächste zentrale Unwahrheitsbaustelle am Kartenhaus der AGW-Theorie ist die sogenannte „Wasserdampfverstärkung“. Dieser behauptete positive Rückkopplungseffekt des Wasserdampfs ist ein entscheidender Dreh- und Angelpunkt der AGW-Hypothese, weil die Wirkung der „offiziell anerkannten“ Treibhausgase nicht ausreicht, um den bisher beobachteten Temperaturanstieg zu erklären. Auf dieser Verstärkungs-Fiktion bauen dann weitere unwissenschaftliche Scheinargumente auf, mit denen versucht wird, die Rolle des eigentlich dominierenden Wassers im Strahlungs- und Wärmehaushalt der Erdoberfläche zu leugnen. Stattdessen wird dessen Einfluss dem CO2 sowie den anderen „Klimagasen“ zugesprochen, obwohl sie bei weitem nicht die gleiche Wirksamkeit haben. Hauptgrund für diese seltsam anmutende Argumentation ist sicherlich, dass man die Fiktion vom Menschen als Ursache des behaupteten Klimawandels auf Biegen und Brechen aufrechterhalten will. Deshalb werden wir uns das Argument der „Wasserdampfverstärkung“, das in unzähligen Variationen ständig wiederholt wird, etwas genauer anschauen. Eine grafische Darstellung dessen, was dabei ablaufen soll, zeigt Bild 6.


Bild 6. Die AGW-Modellvorstellung der verstärkenden Wirkung von Wasserdampf auf die vom CO2 nebst den anderen „Klimagasen“ hervorgerufene Erwärmung (Grafik: [NOAA])

Diese Modellannahme ist schon vom Ansatz her unsinnig, denn sie würde darauf hinauslaufen, dass sich das Klimasystem bereits nach einem kleinen „Stupser“ von selbst immer weiter hochschaukeln würde, bis es schließlich gegen eine Art Anschlag liefe. Bei dieser Argumentation wird zudem ein wichtiger zusätzlicher Aspekt unterschlagen, denn eigentlich müsste man berücksichtigen, dass in den Ozeanen nicht nur enorme Wassermengen, sondern auch rund 38.000 Gigatonnen (Gt) Kohlenstoff als CO2 gespeichert sind *). Das ist rund das 50-60fache dessen, was in der Atmosphäre vorhanden ist. Träfe die Theorie von der „Wasserdampfverstärkung“ zu, so würde mit steigenden Temperaturen ein erheblicher Teil dieses CO2 ebenfalls in die Atmosphäre entweichen und seinerseits den Effekt weiter verstärken **). Dies wäre unvermeidlich, weil die Löslichkeit des CO2 mit steigender Temperatur stark abnimmt. Ein sich erwärmendes Klima würde, wenn die Hypothese von der „Wasserdampfverstärkung“ zuträfe, gleich zwei parallele Mechanismen aktivieren, die unser Klimasystem in eine sich katastrophal immer weiter steigernde Erwärmung katapultieren würden. Dieser Prozess würde solange voranschreiten, bis alles CO2 und alles Wasser aus den Ozeanen entwichen bzw. verdunstet wäre, um dann in einem lebensfeindlichen Endzustand zu verharren. Der C-Inhalt der Atmosphäre läge dann bei rund 40.000 Gt statt der heutigen rund 750 Gt, und sie bestünde hauptsächlich aus Wasserdampf.

Diese Hypothese ist demnach offenkundig schon dann wenig glaubhaft, wenn man sie lediglich als Gedankenexperiment durchspielt. Träfe sie zu, dann gäbe es wohl kaum höheres Leben auf der Erde, wir hätten Zustände, die stark denjenigen der Venus-Atmosphäre ähnelten. Dass so etwas auch in der Realität zumindest in den letzten 550 Mio. Jahren nie vorgekommen ist, beweist der Blick in die Erdgeschichte. Als sich damals aufgrund der Photosynthese unsere heutige „moderne“ Atmosphäre mit ihrem hohen Sauerstoffanteil gebildet hatte, lag deren CO2-Gehalt bis zum 20fachen höher als vor Beginn des Industriezeitalters. Seither ist er unter großen Schwankungen nur ganz allmählich auf das heutige Niveau von 300-400 ppm abgesunken, siehe Bild 7.


Bild 7. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger, [CALU])

Wer dies berücksichtigt, kann die Theorie der Überschreitung eines „Kipppunktes“ in der Temperaturentwicklung aufgrund einer „Wasserdampfverstärkung“ der CO2-Wirkung nicht mehr ernst nehmen. Unterstrichen wird ihre Unhaltbarkeit zusätzlich durch die grafische Auftragung der in verschiedenen Erdzeitaltern seither aufgetretenen Kombinationen aus CO2-Gehalt und Temperatur, Bild 8.


Bild 8. Im Verlauf der Erdzeitalter vom Kambrium (vor etwa 541 bis 485,4 Mio. Jahren) bis heute gab es keine erkennbare Kopplung zwischen atmosphärischem CO2-Gehalt und Temperaturniveau (Daten: Wikipedia)

Als weitere Widerlegung der AGW-Theorie vom CO2 als entscheidendem „Klimagas“ können die recht massiven Schwankungen der Temperaturen im Verlauf vergangener Eiszeiten und Zwischeneiszeiten herangezogen werden. Schließlich haben nach aktuellem Stand der Untersuchungen an Eisbohrkernen die CO2-Gehalte in diesem Zeitraum nicht einmal entfernt an heutige Pegel herangereicht. Dennoch schwankten die Temperaturen seit 450.000 Jahren um insgesamt 15 °C um das heutige Niveau, Bild 9.

Bild 9. Im Verlauf der letzten 450.000 Jahre schwankten die Temperaturen im Verlauf mehrerer Eiszeiten und Zwischeneiszeiten bei wenig veränderlichem CO2-Gehalt der Atmosphäre mit einer Spanne von bis zu 15 °C (zwischen etwa – 9 und + 6 °C) um die heutigen Werte (Grafik: Langexp, GNU Wikimedia Commons, [WIC2])

Diese Fakten beweisen eindeutig, dass es egal ist, wie viele Seiten voller einfacher oder auch komplexer mathematisch-physikalischer Herleitungen und Begründungen die Vertreter der AGW-Hypothese zur Untermauerung ihrer Theorien über Wasserdampfverstärkung und Kipppunkte vorbringen: Sie werden durch die Realität der Erdgeschichte ad absurdum geführt.

…und andere Gutenachtgeschichten zum Thema Wasserdampf

Wie bereits dargelegt, wird Wasserdampf ungeachtet seiner starken „Klimawirksamkeit“ seitens des IPCC nicht als „Treibhausgas“ eingestuft. Eine Erklärung für diese seltsam anmutende Haltung finden sich u.a. auf der Webseite der American Chemical Society [ACS]. Zwar wird auch dort zunächst die starke Wirkung von Wasserdampf anerkannt, die in diesem Fall mit 60 % beziffert wird. Dann wird jedoch behauptet: „Allerdings bestimmt der Wasserdampf nicht die Erdtemperatur, stattdessen wird der Wasserdampf durch die Temperatur bestimmt“. Der Treibhauseffekt werde ausschließlich durch nicht-kondensierende Gase bestimmt. Die entscheidende Rolle spiele das CO2, ergänzt um kleinere Beiträge durch Methan, Stickstoffmonoxid, Lachgas und Ozon. Hinzu kämen kleinere Anteile durch die menschliche Zivilisation erzeugter Gase auf Basis von Chlor- bzw. Fluorverbindungen. Schließlich wird die Katze aus dem Sack gelassen: Als Begründung für den Ausschluss des Wasserdampfs dient auch den US-Chemikern ausschließlich die im vorigen Absatz bereits umfassend widerlegte Theorie von der „Wasserdampfverstärkung“. In die gleiche Kerbe schlagen sowohl das deutschsprachige Wikipedia als auch die englische Version [WITR, WITE].

In der englischen Fassung findet sich allerdings noch ein weiteres und besonders abenteuerliches Argument: Man vergleicht die Verweildauer von CO2 in der Atmosphäre von „Jahren oder Jahrhunderten“ mit der viel kürzeren durchschnittlichen Verweildauer eines H2O-Moleküls in der Atmosphäre von lediglich 9 Tagen. Das wird dann als Begründung dafür angeführt, dass Wasserdampf lediglich „auf die Wirkung anderer Treibhausgase reagiere und diese verstärke“. Dieses Argument ist an Lächerlichkeit kaum zu überbieten. Im Mittel tritt ja bei Vorliegen geeigneter Bedingungen ebenso viel Wasserdampf durch Verdunstung neu in die Atmosphäre über, wie durch Kondensation ausgefällt wird, so dass die Konzentration im Großen und Ganzen unverändert bleibt. Das an den Haaren herbeigezogene Argument von der geringen Verweildauer ist somit hinfällig. Bei geschlossenen Kreisläufen wie dem des Wassers zwischen Gewässern, Atmosphäre und Land ist es völlig unerheblich, ob ein einzelnen Molekül nur fünf Sekunden oder 5.000 Jahre in einem der Stadien des Kreislaufs verbleibt. Das einzige was zählt ist die Gesamtmenge bzw. der jeweilige Anteil des betreffenden Stoffs in diesem Stadium, und diese bleiben im statistischen Mittel unverändert oder driften höchstens vergleichsweise langsam über längere Zeiträume nach oben oder unten. Das kann schon ein Gymnasiast im Physikunterricht leicht nachvollziehen.

Von entscheidender Bedeutung wäre dieses Argument dagegen bei Stoffen, die durch bestimmte Ereignisse mehr oder weniger plötzlich in großen Mengen in die Atmosphäre freigesetzt und von der Natur entweder schnell, langsam oder gar nicht resorbiert bzw. in Senken abgelagert werden. Dies ist beim CO2 z.B. nach dem Ausbruch von Supervulkanen der Fall. Hier ist eine möglichst genaue Kenntnis der zugrundeliegenden Kreisläufe, ihrer Stoffflüsse und deren Gesetzmäßigkeiten unabdingbar. Doch auch hier wird von den AGW-Propheten massiv geschummelt. Aus Platzgründen wird hierauf in einem weiteren Artikel noch detailliert eingegangen.

Die Wolken sind der Hund, das CO2 höchstens der Schwanz

Der nächste Aspekt, bei dem sich die AGW-Vertreter mit ihren Theorien regelrecht an Strohhalme klammern, ist das Thema Wolken. Zunächst sei angemerkt, dass es sich auch hierbei um Wasser handelt, allerdings liegt es im flüssigen (Wassertröpfchen) bzw. festen (Eiskristalle) Aggregatzustand vor. Und diese Wolken haben es in sich. Das IPCC behauptet ja, dass ein angenommener Energiefluss (siehe Bild 3) von 0,6 W/m2 das Erdklima bedrohen soll. Das sind jedoch gerade mal etwa 1,3 % des Betrags von 47 W/m2, den die Wolken direkt wieder ins Weltall reflektieren [STEP]. Nun weiß jeder Mensch aus eigener Erfahrung, dass kaum ein Wetterphänomen so unstet ist wie die Wolken. An einem schönen Sommer-Sonnentag kann es sein, dass ihre Abschattung kaum ins Gewicht fällt, bei Unwettern kann es dagegen selbst mitten am Tage so dunkel werden, dass man im Haus das Licht einschalten muss. Ihre Wirkung auf den Energie- und damit Temperaturhaushalt der Erde ist daher ebenso erratisch wie gewaltig. Diese Phänomene konnten früher mangels geeigneter Instrumente nicht gemessen werden. Eine Erfassung durch Satelliten ist erst seit wenigen Jahrzehnten möglich, doch deckt diese wesentliche Aspekte wie die Transparenz für verschiedene Wellenlängen nur unvollständig ab. Hier ist eine Erfassung vom Boden aus nicht zu ersetzen.

Ein weiterer, ebenso wichtiger Aspekt ist der, dass Wolken eine ganz besondere Eigenschaft haben: Sie absorbieren und emittieren Licht aus allen Bereichen des Spektrums, also auch die infrarote Strahlung, die von der Erdoberfläche ebenso ausgeht wie von den IR-strahlungsfähigen Gasen in der Atmosphäre. Zudem geben sie als flüssige Körper mit Masse und Temperatur selbst IR-Strahlung in einem annähernd kontinuierlichen Spektralbereich sowohl nach oben als auch nach unten ab. Während sie also einerseits die Erde nach oben gegen die Sonnenstrahlen abschirmen, sorgen sie „nach unten“ dafür, dass mehr Strahlungsenergie wieder Richtung Erdoberfläche reflektiert wird als bei freiem Himmel. Hinzu kommt der nicht unerhebliche Anteil „Eigenstrahlung“ in alle Richtungen. Die entsprechenden Energiebeträge liegen um zwei Größenordnungen über dem angenommenen „Imbalance“-Betrag und um mehr als anderthalb Größenordnungen über dem Beitrag, der den angeblichen „Klimagasen“ zugeordnet wird. Schon geringe Unsicherheiten bei der Erfassung der Wirkung der Wolken reduzieren daher den „Imbalance-Effekt durch Klimagase“ auf den Rang einer nicht maßgeblichen Störgröße. Wenn man sich dies vergegenwärtigt, kann man nur staunen, auf welch wackliger Grundlage die AGW-Theoretiker ihre Gedankengebäude aufgebaut haben.

Die Uneinigkeit der Wissenschaft beim Thema Wolken

Eines der meistgebrauchten Totschlags-Argumente gegen die sogenannten Klimaskeptiker ist bekanntlich die Behauptung, „die Wissenschaft“ sei sich in der Frage der menschengemachten Klimaerwärmung zu 97 % einig und diejenigen, die nicht damit übereinstimmten, seien Querulanten, Spinner oder Laien ohne die erforderliche wissenschaftliche Qualifikation. In Anlehnung an die rechtlichen Regelungen bezüglich des Verbots der Leugnung von Nazi-Vergehen wird besonders gerne der diskriminierende Begriff „Klimaleugner“ verwendet. Für diese fordern manche besonders forsche Exponenten der Mehrheitsmeinung teils bereits die Todesstrafe, teils bereiten sie wie einige US-amerikanische Staatsanwälte Strafverfolgungsverfahren auf der Grundlage von Gesetzen vor, die für die Bekämpfung des organisierten Verbrechens geschaffen wurden. Angesichts dieser massiven Drohungen und Diskriminierungen macht es daher Sinn, sich mit dem angeblichen „Konsens der Wissenschaft“ beim Thema Wolken und ihrer Wirkung auf das Klima etwas näher zu beschäftigen.

In der englischen Fassung von Wikipedia [WITE] werden Wolken unter Berufung auf eine Untersuchung von Schmidt et al. aus dem Jahre 2010 [SCHM] als Hauptverursacher der Klimaerwärmung eingestuft. Die Autoren ordnen dem Wasserdampf rund 50 % des Treibhauseffekts zu, die Wolken sollen weitere 25 % ausmachen, 20 % kommen demnach vom CO2 und die restlichen 5 % werden Aerosolen und den sogenannten „minor greenhouse gases“ zugeschrieben.

Weniger sicher ist man sich dagegen bei den Redakteuren der deutschen Fassung von Wikipedia [WITR]. Dort wird zunächst erläutert, dass Wolken als kondensierter Wasserdampf streng genommen kein Treibhausgas darstellten. Sie absorbierten aber IR-Strahlung und verstärkten dadurch den Treibhauseffekt ***). Zugleich reflektierten sie jedoch auch die einfallende Sonnenenergie und hätten daher auch einen kühlenden Einfluss. Die Frage, welcher Effekt überwiege, hänge von Faktoren wie der Höhe, Tageszeit/Sonnenhöhe, Dichte oder geografischen Position der Wolken ab. Inwieweit eine Erderwärmung die im gegenwärtigen Klima insgesamt kühlende Wirkung der Wolken abschwäche oder verstärke, sei die unsicherste Rückkopplungswirkung der derzeitigen globalen Erwärmung. Der letzte Satz ist übrigens so geschickt formuliert, dass man ihn erst genauer lesen muss. Erst dann erkennt man, dass hier den Wolken in der jetzigen klimatischen Situation de facto eine kühlende Wirkung zugesprochen wird. Die Unsicherheit bezieht sich lediglich auf den Fall, dass es in Zukunft tatsächlich zu einer Erwärmung des Klimas kommen sollte.

Ziemlich präzise sind dagegen die Angaben des Wiki-Bildungsservers [WIBI]. Dort wird ausgesagt, dass Wolken einerseits die planetare Albedo um ca. -50 W/m2 erhöhten, auf der anderen Seite jedoch auch durch Absorption und Emission der langwelligen Wärmestrahlung mit etwa + 30 W/m2 zum Treibhauseffekt beitrügen. Der Netto-Strahlungseffekt liege damit bei ungefähr -20 W/m2, was eine deutliche Abkühlung des gegenwärtigen Klimas bewirke. Nach Umrechnung der beiden gegenläufigen Effekte in Temperaturen ergebe sich aus einer Abkühlung um -12 °C und einer Erwärmung um +7 °C eine netto-Abkühlung von -5 °C.

Eine sehr fundierte Einschätzung findet man bei dem bereits erwähnten International Satellite Cloud Climatology Project (ISCCP) der NASA [WONA], wo man sich intensiv mit den extrem komplexen Zusammenhängen der Bildung von Wolken und ihres Einflusses auf das Klima beschäftigt. Dabei kommt man zu sehr klaren Aussagen: So wird im Zusammenhang mit Strahlungs- und Niederschlagswechselwirkungen von Wolken lapidar festgestellt, dass man derzeit nicht wisse, wie groß diese Effekte seien. Deshalb sei eine korrekte Vorhersage eventueller Auswirkungen auf den Klimawandel nicht möglich. Und dann kommt es (zumindest für die AGW-Vertreter) knüppeldick, findet sich dort doch die Einschätzung, dass die aktuell verwendeten Programme zur Simulation des Klimas insbesondere mit Blick auf die Vorhersagegenauigkeit bezüglich Wolkenbildung und Regenmengen viel zu ungenau seien. Für eine vertrauenswürdige Klimavorhersage müsse die diesbezügliche Vorhersagegenauigkeit um den Faktor 100 (!) besser werden. Dies setze auch entsprechend verbesserte Messverfahren voraus. Damit ist im Prinzip alles, was bisher an Klimasimulationen präsentiert wurde, aus berufenem Munde (NASA/GISS) für unbrauchbar erklärt worden.

Auf Satellitenmessungen des „Earth Radiation Budget Experiment“ (ERBE) stützt sich die Einschätzung von Prof. Walter Roedel in seinem Buch über Physik der Atmosphäre [ROED]. Diese Daten zeigten, dass global die Abkühlung durch die Erhöhung der planetaren Albedo (immer im Vergleich zu einer wolkenfreien Atmosphäre) gegenüber der Erwärmung durch die Reduzierung der langweiligen Abstrahlung weit überwiege, wenn auch mit starker regionaler Differenzierung. Einem globalen Verlust von etwa 45 bis 50 W/m² aufgrund der erhöhten Albedo stehe nur ein Gewinn von etwas über 30 W/m² durch die Reduktion der thermischen Abstrahlung gegenüber; die Strahlungsbilanz wird also durch die Bewölkung um 15 bis 20 W/m² negativer. Das liegt etwa um den Faktor 10 über dem behaupteten Einfluss des CO2.

Interessante Erkenntnisse zur Größe und Variation der IR-Strahlung aus der Atmosphäre zum Boden liefern Messungen von E.I. Nezval et al. [NEZV] bei Untersuchungen in Russland über mehrere Jahre. Obwohl hierbei nur die abwärtsgerichteten Strahlungskomponenten erfasst wurden, sind die Daten sehr aufschlussreich, da sie die erhebliche Größenordnung sowie die enorme Variabilität der von Wolken und Wasserdampf gelieferten Beiträge zum Energiehaushalt der Atmosphäre verdeutlichen, Bild 10.

Bild 10. Messdaten zur abwärtsgerichteten IR-Strahlung in der Region Moskau über drei Jahre. Der Beitrag aller „offiziellen Klimagase“ (vergl. Bild 5) ist nur etwa halb so groß wie die Strichdicke der Achseinteilung, auf die der Pfeil zeigt (Grafik: E.I. Nezval et al. [NEZV])

Die höchste abwärtsgerichtete IR-Strahlungsintensität wurde an einem wolkenreichen Juliabend 2009 mit 424 W/m2 gemessen, die niedrigste Wert von 169 W/m2 wurde bei klarem Himmel in den Morgenstunden eines Februartags registriert. Vergleicht man diese Zahlen und ihre Variationsbreite mit dem vom IPCC angegebenen „Strahlungsantrieb“ der Klimagase von lediglich 1,6 W/m2, so kommt man auf einen Multiplikator von bis zu 265 (!). In Sommermonaten variierte der nach unten gerichtete IR-Strahlungsanteil innerhalb eines Tages um bis zu 33 W/m2. Man vergleiche dies mit aktuellen Simulationen, die mit festen Mittelwerten von beispielsweise ganzjährig 1,6 W/m2 arbeiten. Zudem werden die atmosphärischen Eingangsdaten wie Temperatur oder Luftfeuchtigkeit bis heute oft nur mit einstelliger Genauigkeit gemessen. Daher ist die Nonchalance, mit der die Creme der „Klimawissenschaft“ meint, dem Einfluss des „anthropogenen CO2“ die Hauptrolle zuordnen zu müssen und Simulationen auf der Grundlage von solch unsicheren Daten vertrauen zu dürfen, selbst für jemanden ohne wissenschaftlichen Hintergrund nur sehr schwer nachvollziehbar. Stattdessen sollte man besser darangehen, zunächst einmal die Hauptfaktoren des Wetter-und Klimageschehens flächendeckend mit ausreichender Genauigkeit und zeitlicher Auflösung zu ermitteln, bevor man Klimasimulation betreibt 

Mangelnde Wissenschaftlichkeit: Das Dilemma der AGW-Vertreter

Die hier aufgeführten Beispiele zeigen, dass die ganze auf dem angeblichen Effekt des „wichtigsten Treibhausgases CO2“ basierende AGW-Theorie wissenschaftlich kaum haltbar ist. Hier wird vor allem Ideologie unter wissenschaftlichem Mäntelchen verpackt und dem Volk mit dem dicken Knüppel der Medien (Prof. Lesch, Schellnhuber und Konsorten) und der Politik (massive Einflussnahme auf Stellenbesetzungen und Fördergelder) schon ab Kindergartenalter in die Gehirne geprügelt. Kritische Meinungen versucht man nicht nur durch Verweis auf einen angeblichen „Konsens der Wissenschaft“, sondern zunehmend auch durch Einschüchterung, Verleumdung sowie direkte Diskriminierung zu unterdrücken. Und das, obwohl sich die Aussagen der AGW-Vertreter schon bei elementaren Grundlagen teils diametral widersprechen.

Präzise auf den Punkt gebracht hat dies der emeritierte Associate Professor für Meteorologie vom Geophysikalischen Institut der Universität in Fairbanks (Alaska, USA), Dr. rer. nat. Gerhard Kramm, in einer kürzlichen Stellungnahme zur Klimadiskussion [KRAM]: „Der sogenannte atmosphärische Treibhauseffekt beruht auf pseudowissenschaftlichem Müll. Mit Physik hat dieser Müll nichts zu tun. Wäre es ein physikalischer Effekt, dann wäre er eindeutig definiert. Das Gegenteil ist der Fall. Es gibt eine Vielzahl von unterschiedlichen Definitionen und Erklärungen, die sich z.T. sogar widersprechen. Selbst die Esoterik stellt höhere Ansprüche als die sogenannte Klimaforschung“.

Fred F. Mueller

Fußnoten

*) Bei der Quantifizierung von CO2-Kreisläufen wird aus praktischen Erwägungen nur der Kohlenstoffanteil im CO2 berücksichtigt, weil der Kohlenstoff in Reservoirs wie z.B. Pflanzen oder Humus auch in völlig anderen Verbindungen vorliegen kann, aus denen sich erst später wieder CO2 bildet.

**) In der Regelungstechnik entspräche dies einer „Mitkopplung“, also einem Effekt, den man z.B. dann erlebt, wenn man mit dem Mikrofon eines Verstärkers zu nahe an die Lautsprecher kommt: Es kommt zu einem immer lauter werdenden Brummen oder Pfeifen, das solange zunimmt, bis die Anlage an ihre Grenzen gekommen ist. Die Geowissenschaften beweisen jedoch, dass Temperaturen und Klimaentwicklung der Erde seit hunderten Millionen von Jahren trotz gelegentlicher schwerer Katastrophen (Vulkane oder Meteoreinschläge) stets innerhalb vergleichsweise vernünftiger Grenzen verblieben sind und die Effekte solcher Katastrophen ausbaalaciert werden konnten. Statt einer katastrophalen Mitkopplung wurde unser Klima demnach offensichtlich von einer sehr gutmütigen Gegenkopplung erstaunlich stabil auf einem lebensfreundlichen Kurs gehalten.

***) Diese Erklärung hätte bei Physiklehrern alter Schule noch die Bemerkung „Sechs, setzen“ ausgelöst, verbunden mit einer Strafarbeit zum Thema, dass nicht die Absorption, sondern höchstens die (Re-)Emission von IR-Strahlung einen Beitrag zu einem „Treibhauseffekt“ leisten könne. Aber Wikipedia als angeblich seriöses Nachschlagewerk mit dem Anspruch wissenschaftlicher Korrektheit ist schon längst fest in der Hand einer neuen Generation „moderner“ Wissenschaftler, denen ideologische Überzeugungen wichtiger sind als Mathematik, Physik oder Naturwissenschaften.

Quellen

[ACS] https://www.acs.org/content/acs/en/climatescience/climatesciencenarratives/its-water-vapor-not-the-co2.html

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml

[CDIA] http://cdiac.ornl.gov/trends/co2/recent_mauna_loa_co2.html

[EPA] https://www3.epa.gov/climatechange/kids/basics/today/greenhouse-gases.html

[IP01] spm2 https://www.ipcc.ch/report/graphics/index.php?t=Assessment%20Reports&r=AR4%20-%20WG1&f=SPM

[IP02] Climate Change 2013: The Physical Science Basis. Working Group I contribution to the IPPC Fifth Assessment Report

[KRAM] http://www.eike-klima-energie.eu/climategate-anzeige/klimaforschung-eine-spielvariante-der-zukunftsforschung-was-ist-zukunftsforschung-was-kann-sie-leisten/#comment_8

[NEZV] E. I. Nezval, N. E. Chubarova, J. Gröbner, and A. Omura. Influence of Atmospheric Parameters on Downward Longwave Radiation and Features of Its Regime in Moscow. ISSN 00014338, Izvestiya, Atmospheric and Oceanic Physics, 2012, Vol. 48, No. 6, pp. 610–617. © Pleiades Publishing, Ltd., 2012.DOI: 10.1134/S0001433812060102

[NOAA] Image provided by NOAA ESRL Chemical Sciences Division, Boulder, Colorado, USA http://www.esrl.noaa.gov/csd/news/2013/144_0930.html

[ROED] Walter Roedel. Physik unserer Umwelt: Die Atmosphäre. ISBN 978-3-540-67180-0

[SCHM] Schmidt, G. A.; R. Ruedy; R. L. Miller; A. A. Lacis (2010), "The attribution of the present-day total greenhouse effect" (PDF), J. Geophys. Res., 115, Bibcode:2010JGRD..11520106S, doi:10.1029/2010JD014287

[STEP] Stephens et al. The albedo of Earth. http://webster.eas.gatech.edu/Papers/albedo2015.pdf

[TREA] http://www.theresilientearth.com/files/images/Greenhouse_Gas_Absorption-dlh.png

[WIC1] https://commons.wikimedia.org/wiki/File:Sonne_Strahlungsintensitaet.svg   abgerufen am 10.9.2016

[WIC2] https://commons.wikimedia.org/wiki/File:Ice_Age_Temperature_de.png…abgerufen am 11.9.2016

[WILU] https://de.wikipedia.org/wiki/Luft …abgerufen am 30.8.2016

[WIME] https://commons.wikimedia.org/wiki/File:Albedo-R%C3%BCckstrahlung_Infografik.png ….heruntergeladen am 4.9.2016

[WITE] https://en.wikipedia.org/wiki/Greenhouse_gas    abgerufen am 30.8.2016

[WITR] https://de.wikipedia.org/wiki/Treibhausgas….abgerufen am 30.8.2016

[WONA] http://isccp.giss.nasa.gov/role.html….abgerufen am 4.9.2016




Polen bannt die Windenergie und verdoppelt die Förderung der Kohlekapazität, um die Lichter nicht ausgehen zu lassen

Bild rechts: Standardreaktion der Windindustrie auf einschränkende Regeln.

Schlimmer noch für polnische Windverehrer, konfrontiert mit einer erratischen Stromversorgung und steigenden Preisen, hat ihre Regierung beschlossen, die Unterstützung der Kohleindustrie und – Energie Erzeugung zu verdoppeln, damit „die Lichter nicht ausgehen“.

Polen meidet Wind und verdoppelt die Subventionen in zuverlässiger Kohleenergie zur Sicherung seiner Zukunft

Powermag, Autor Sonal Patel

1 August 2016

Polen, ein Land, in dem Stein- und Braunkohlekraftwerke derzeit etwa 85% der Energie erzeugen, hat ein Gesetz verabschiedet, das eine Windkraft Expansion stigmatisiert und grübelt jetzt über Gesetzesentwürfe, die helfen, Investitionen in neue Kohlekapazitäten zu steigern.

Das osteuropäische Land hat dem Trend zu erneuerbaren Energien abgeschworen, dem viele Länder auf dem Kontinent folgen. Als Grund nennen sie die Energiesicherheit. Polen gehört zu den energieintensivsten Volkswirtschaften in der Europäischen Union (EU) und es hat eine der am stärksten abgeschotteten Stromnetze.

Die Temperaturspitzen im letzten Sommer zeigten, wie angespannt die Stromversorgung der Nation ist.

Im August 2015, als eine dauerhafte Hitzewelle die verfügbaren Wassermengen für die Kraftwerkskühlung reduzierte, wurden einige Kraftwerke gezwungen runterzufahren oder wurden nur bei reduzierter Leistung betrieben.

Gepaart mit anderen unerwarteten Kraftwerksabstellungen, wurde der staatliche Netzbetreiber Polskie Sieci Elektroenergetyczne aufgefordert, temporäre Beschränkungen für den Stromverbrauch einzuführen. Mehr als 1.600 Kunden, vor allem die Industrie, wurden davon betroffen.

Bełchatów Power Station.

Bild: powermag.com/wp-content/uploads/2016/08/pwr_080116_gm_fig3.jpg

 Vorstehendes Bild: Wenn ein Riese ausfällt

Eine längere Hitzewelle im August 2015 senkte die Wasserstände in den Flüssen und Seen, so dass einige konventionelle Krafteinheiten aufgrund von Problemen mit der Kühlung gezwungen waren zu abzuschalten oder mit reduzierter Leistung zu arbeiten.

Die Leistungssystemreserven des abgeschotteten Stromnetzes wurden durch das abrupte Abschalten des landesweit größten Braunkohlekraftwerk Belchatow – Bild oben – nach einem technischen Defekt gefährlich vermindert..Mit freundlicher Genehmigung: Wikimedia Commons / Morgre

Das polnische Stromsystem wird wahrscheinlich nur mit Beschränkungen weiterbetrieben werden können, bis neue Projekte ans Netz gehen.

Zwischen 2017 und 2019 sind mehrere neue Kohle-Einheiten geplant, einschließlich des staatlichen 1,8-GW-Werk in Opole, der Polska Grupa Energetyczna, des Eneas 1-GW-Projekt in Kozienice und der 900-MW-Anlage in Jaworzno, der Tauron Polish Energy.

Die Regierung erklärt, dass Polen dringend noch mehr Kapazität benötigt, weil mehr als 75% der bestehenden Kraftwerke mehr als 26 Jahre alt sind und die Nachfrage nach Energie sprunghaft zugenommen hat. Aber Investitionen wurden wegen zu niedrigen [Strom-] Großhandelspreisen, freier Kohlenstoff Zertifikate und steigendem Anteil erneuerbarer Energien in der EU rückläufig.

Mehrere Kohle und Erdgas-Kraftwerke, die in der Entwicklung waren, wurden auf Eis gelegt. Der Energiesektor hat die Regierung aufgefordert, irgendeine Form von Kapazitätszahlungen einzurichten, um die Rentabilität der Einheiten im Bau zu stützen, wenn die Marktbedingungen, wie erwartet, bis 2020 gedämpft bleiben.

Inzwischen hat die Regierung beträchtliche Subventionen für eine Reihe von polnischen Kohleminen gewährt, die nicht in der Lage sind mit Importkohle zu konkurrieren. Eine Rücknahme der Reform ist unwahrscheinlich, für einen Kohlesektor, in dem 130.000 Menschen beschäftigt sind, konzentriert vor allem in der Industrieregion Oberschlesien.

Es überrascht nicht, dass die neue Regierung – dominiert von der konservativen Partei Recht und Gerechtigkeit, der langjährigen liberal-konservative Bürgerplattform im letzten Oktober-widersteht und die ehrgeizigen EU-Klimaziele verdrängt. Dafür wurde die Regierung auch in letzter Zeit beschuldigt, die Perspektiven des Landes für erneuerbare Energien durch Favorisierung des Kohlesektors zu sabotieren.

Ende Juni unterzeichnete der Präsident ein umstrittenes Gesetz, das den Bau von Windparks in der Nähe von Nationalparks und Wohngebieten verbietet und fordert von Betreibern von Windparks die Erneuerung der Betriebslizenz alle zwei Jahre und die Sicherzustellung, dass die [bestehenden] Windkraftgeneratoren repariert oder modernisiert werden.

Die Ratingagentur Moody sagte, das Gesetz werde die Investitionen in erneuerbare Energien bremsen, die gehaltene Reserve-Kapazität verschärfen und die Bemühungen Polens erschweren, bis zum Jahr 2020 15% seiner Leistung im Rahmen eines EU-Mandat aus erneuerbaren Energien zu erzeugen (derzeit 13% aus erneuerbaren Energien).

Polen wird sich wahrscheinlich auf Biomasse und Biogas verlassen, um die Lücke zu füllen. Zur gleichen Zeit werden die Gesetzgeber die Entwürfe der Gesetzgebung entwickeln, um Investitionen für mehr Kapazität im Kohlekraftsektor zu stimulieren. Laut Reuters wird der Gesetzentwurf in diesem Herbst veröffentlicht werden.

Auch in Polen ist es ein Flop

Bild: stopthesethings.files.wordpress.com/2016/05/turbine-collapse-ireland.jpg

Erschienen am 06.09.2016 auf Stopthesethings

Übersetzt durch Andreas Demmig

 https://stopthesethings.com/2016/09/06/poland-bans-wind-power-orders-a-double-helping-of-coal-to-keep-the-lights-on/




Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht

Die konventionelle Landwirtschaft hatte ein ganz kleines bisschen weniger Ertrag, als im letzten Jahr des „Klima-Menetekels“. Deshalb jammert sie (wegen einem Prozent weniger gegenüber dem Höchstertrag) wie üblich, wies aber Erträge aus, welche einfach weiterhin nur hervorragend waren:

Anm.: Nicht Deutschland, aber zur Information, wie das angebliche CO2-Gift den Weizenertrag fördert, obwohl Amerikas Westen angeblich durch den Klimawandel „verbrennt“:
dlz Agrarmagazin: USA: So soll sich die diesjährige Weltweizenernte nur noch auf rund 727 Mio. t belaufen und damit das zweithöchste Niveau erreichen. Das wären ein Prozent oder rund 7 Mio. t weniger als 2015.


Bild 1 Getreide Welt. Quelle: Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

Auch für Deutschland lässt sich das bekannte Frankenlied synonym verwenden, allerdings mit einer modernisierten Erweiterung:

So viel Korn ist zu verladen, dass auf des Maines Flut die Lastkähne in Stau geraten

Damit bestätigen die letzten Ernten, was bereits in „Ernteerträge und Klimawandel“ berichtet wurde: Die Erträge übersteigen laufend alles bisher da gewesene. Von einem negativen Klimawandel-Einfluss wirklich nirgends eine Spur.

Was nicht bedeutet, dass Bauernpräsidenten nicht umso dreister gegen alle Fakten (bzw. gegen die wegen Überangeboten zu niedrigen Weltmarktpreise) jammern, was das Zeug hält.

[2] Berlin – Die Ernte in Deutschland fällt diesmal drastisch schlechter aus
Vielen Ackerbauern geht das Geld jetzt auch aus», sagte Bauernpräsident Joachim Rukwied bei der Vorlage einer Erntebilanz.
Wegen ungünstigen Wetters zeichnet sich bei Getreide ein Minus von elf Prozent auf 43,5 Millionen Tonnen ab – weniger waren es zuletzt vor fünf Jahren. Auch bei Raps dürften mit 4,5 Millionen Tonnen elf Prozent weniger hereinkommen als im Vorjahr. Angesichts niedriger Weltmarktpreise für viele Produkte hoffen die Landwirte auf mögliche weitere Krisenhilfen des Staates von 100 Millionen Euro.

DER SPIEGEL: Ernte 2016: Regen, Pilze, Krankheiten – schlechtes Wetter lässt Bauern verzweifeln Der verregnete Sommer sorgte bei Kartoffeln für Probleme mit Pilz- und Infektionskrankheiten. "Wir sind froh, dass wir heute mit Pflanzenschutzmitteln, die Pilzinfektionen bekämpfen können. Hätten wir diese nicht gehabt, gäbe es in diesem Jahr keine Kartoffeln", sagte Rukwied dem Bayrischen Rundfunk.

Was für einen Bauerverbands-Präsidenten „drastisch schlechter“ bedeutet, kann man in der offiziellen Ertragstabelle sehen. Die Abweichungen vom hohen Mittelwert der Jahre 2010 – 2015 sind in der Regel so minimal, dass es kaum gemessen werden kann. Interessant ist nur, dass die Erträge im angeblichen Katastrophenjahr 2015 bis auf Sommerweizen und Hafer durchgehend noch besser waren. Lediglich aufgrund der extrem guten Ergebnisse des Jahres 2015 ergeben sich nun moderate Minderungen:

  

Bild 2 Getreide Deutschland 2016, Daten aus dem Schaubild 1 im BFEL-Bericht vom Autor tabelliert und erweitert. Quelle: Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

Selbst der Hopfen, nach den Grünen und Prof. H. Lesch ein angeblich untrüglicher Indikator für den schlimmen Einfluss des Klimawandels „Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?“, spielt das grüne Klimaspiel nicht mit:

Bild 4 Deutschland Hopfenerträge. Daten für 2016 vom Autor ergänzt (rot). Quelle: LfL Jahresbericht 2015 Sonderkultur Hopfen

Und nicht einmal die gemeldeten, angeblich immer schlimmeren Ertragsschwankungen zeigen sich bei einer Nachschau: „Schlechte Erntejahre kommen ganz offenbar immer häufiger

Einfügung: Gerade vor dem Wegschicken kam auf EIKE die Ernteinfo von Herrn Kämpfe:

Die erfreuliche Nachricht: Sehr gute Getreideernte 2016 in Thüringen- wo bleiben die negativen Folgen des angeblichen „Klimawandels“?

welche die Darstellungen bestätigt.

Trotzdem wird von Experten unbekümmert simuliert. Und im Computer sinken die Weizenerträge kontinuierlich. Wenn man feststellt, dass die Simulationen nicht mit den realen Daten übereinstimmen, werden viele Simulationen erzeugt und dann gemittelt – mangels Unabhängigkeit ein eklatanter, statistischer Fehler – beim Klimawandel aber erlaubt, falls sich nur so ein Alarm erzeugen lässt. Und wie früher dem Mann auf der Kanzel nicht widersprochen werden durfte, gilt es heute für Ergebnisse von Computersimulationen.

Bundesministerium für Bildung und Forschung, Journalbeiträge:

Rechnen mit der Unsicherheit Starke Einbrüche beim Weizen

Die Forscher verglichen die Ergebnisse von 30 Computermodellen mit experimentellen Daten von Versuchsfeldern in Arizona (USA). Dabei stellten sie fest, dass die Modelle mit zunehmender Temperatur von den Ergebnissen der Feldversuche abwichen. Lediglich der Median aller Modelle kam den im Feld ermittelten Ergebnissen nahe. Daraus schlossen die Forscher, dass ein Modell alleine unter Umständen keine realitätsnahen Prognosen liefern kann, sondern dass die Werte mehrerer Modelle verwendet werden sollten, um Aussagen zu treffen. Ihre Ergebnisse nutzten die Forscher anschließend zu einer Prognose der globalen Weizenerträge bei steigenden Temperaturen: Hier zeigte sich, dass die Erträge mit jedem Grad mehr um etwa sechs Prozent einbrechen werden. Weltweit wären das 42 Millionen Tonnen, etwa ein Viertel des 2013 global geernteten Weizens. Sie stellten zudem fest, dass die Ertragseinbußen beim Weizen bereits bei geringeren Temperaturanstiegen einsetzen, als bisher berechnet wurde.

Während sich die Ernten der gescholtenen Agrarindustrie allen Simulationsergebnissen sogenannter Klimafachleute widersetzen und dank dem sich stetig wandelnden Klima von einer Ertragsspitze zur nächsten eifern, gibt es eine Ausrichtung, welche nach der Ideologie davon nicht betroffen sein soll, aber genau darunter massiv verzweifelt.

Biobauern traf der Sommer 2016 hart

Neue Zürcher Zeitung 4.8.2016: [6] Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?

In einem Jahr wie diesem zeige sich schonungslos, dass diese ökologisch geprägte Politik nicht aufgehe. An Zürcher Sammelstellen zeige sich bezüglich der Getreideernte «der blanke Horror»: Vor 150 Jahren hätte eine solche Missernte ein Hungerjahr bedeutet, sagt Haab, jetzt müsse halt stärker auf das Ausland gesetzt werden. Dies sei die Quittung dafür, dass Bauern mit Beiträgen vom Bund im Rahmen des Extenso-Programms und mit IP-Suisse-Geldern davon abgehalten würden, ihre Weizen wirksam vor Pilzbefall zu schützen.
Bauern, die extensiv produzierten, also ohne Einsatz von Fungiziden, hätten einen Ernteausfall von rund 40 Prozent zu verkraften, konventionelle Produzenten einen solchen von 20 bis 25 Prozent, sagt er.

DIE WELT 11.08.16: [5] Ernteausfälle bei Bio-Gurken im Spreewald
Ein Betrieb aus Steinreich (Dahme-Spreewald) etwa beklagt bei Bio-Schälgurken Ernteausfälle von 70 Prozent. Grund sei eine Pilzkrankheit. Die EU stufte vor Jahren ein Mittel dagegen, das im Ökolandbau angewendet durfte, als Pflanzenschutzmittel ein. Damit darf es nicht mehr auf die Felder
.

Frankfurter Rundschau 21. Juli 2016: Kleine Körner, faule Kartoffeln
Auch Kartoffeln dürfte es dieses Jahr weniger geben. Die Kraut- und Knollenfäule wütet, eine Pilzkrankheit, die ebenfalls durch Nässe ausgelöst wird. „Auf manchen Äckern gibt es Einbußen bis zu 100 Prozent“, sagt Weber.

[3] Insbesondere für die Erzeuger von Biokartoffeln war die Ausbreitung des Krautfäuleerregers Phytophthora infestans ein großes Problem; im Ökoanbau wurde auch ein vermehrtes Auftreten von Kartoffelkäfern beobachtet.

topagrarONLINE, 09.08.2016: Bio-Kartoffelbauern in der Pfalz drohen 100 Prozent Ernteausfall
Feucht-warme Witterung begünstigt die Krankheit und kann zu Ertragsverlusten von 20 bis 40 % oder sogar zu Totalschaden führen. Die Behandlung mit Kupfer, die im Bio-Anbau bis zu einer bestimmten Grenze pro Hektar erlaubt ist, greift bei häufigen Niederschlägen nicht, weil das Kupfer sofort wieder von der Pflanze abgewaschen wird und damit wirkungslos bleibt. Andere Pflanzenschutzmittel, wie zum Beispiel das systemisch wirkende und komplett abbaubare Kaliumphosphonat, sind beim Bio-Anbau nicht erlaubt.
Die Ökobauern befinden sich aufgrund des dauerhaft feuchten Wetters im Frühjahr und Frühsommer 2016 in einer Zwickmühle. Entweder sie verlieren ihr
Biosiegel oder die komplette Ernte.

Welch gewaltigen Ertragunterschiede schon „im normalen Mittel“ bestehen, zeigt ein Artikel von „agrar heute“. Und er zeigt, dass der Biolandbau im Vergleich nicht besser, sondern schlechter wird. Die Daten stammen vom inzwischen grün eingefärbten Landwirtschaftsministerium, somit dürften sie nicht allzu weit daneben liegen.

agrar heute 07.01.2016:  Öko-Erträge fallen weiter zurück – vor allem beim Raps

Die Datengrundlage lieferte das sogenannte Testbetriebsnetz des Bundeslandwirtschaftsministeriums. Hier werden repräsentative Daten von Betrieben beider Bewirtschaftungsformen unter ähnlichen Bedingungen (u. a. Betriebsgröße, Standort) erhoben und verglichen.

Bild 5 Mehrerträge im konventionellen Landbau gegenüber Ökolandbau. Quelle: agrar heute, ausgabe 07.01.2016:  Öko-Erträge fallen weiter zurück – vor allem beim Raps

Natürlich finden sich beliebig viele Veröffentlichungen, welche das Gegenteil beweisen. In aller Regel gelingt dies, indem „Umweltkosten“ und vor allem auch „Klimaschutz-Nutzen“ monetär bewertet und zugerechnet werden.

Nutzen von Pflanzenschutzmitteln

Man sollte meinen, diese Tatsachen würden zwar nicht Biophantasten, aber wenigstens offizielle Verantwortliche überzeugen. Dem ist aber nicht so. Berliner Ideologie und Frau Hendricks kann keine Krautfäule überzeugen. Was ideologisch als böse festgelegt ist, muss bestraft werden.
Klimaretter.Info 08.09.3015: "Heutige Landwirtschaft ist auch nicht gut für Bauern"

(Anm.: Frau Hendricks)auf Pflanzenschutzmittel soll es künftig eine Abgabe geben.

Die Natur hat auf den Menschen noch nie Rücksicht genommen

Das gesamte, vorherige Kapitel zieht es sich wie ein roter Faden hindurch: Ohne moderne Pflanzen-Schutzmaßnahmen geht in feuchteren Jahren ein erheblicher Teil der Ernte verloren.
Im Artikel: Biobauern darben ohne Klimawandel wurde es schon einmal thematisiert.

Eine Illusion der Grünen ist, Natur wäre grundsätzlich „gütig“. Dieses Jahr zeigte wieder, wie sie wirklich ist.

TELEPOLIS 22.08.2016: [4] Kartoffelernte würde ohne Pflanzenschutzmittel weitgehend ausfallen
Welche Folgen Missernten ohne Pflanzenschutzmittel haben, konnte man Mitte des 19. Jahrhunderts sehen: Damals sorgte der Kartoffelmehltau (Phytophthora infestans) dafür, dass die Ernten in Europa in den Jahren 1845 und 1846 deutlich zurückgingen: In Preußen beispielsweise um 47, in Württemberg um 55, in Dänemark um 50, in Schweden um 20 bis 25, in Frankreich um 20, in den Niederlanden um 71, in Belgien um 87 und in Irland um 88 Prozent zurückging.
Dort, in Irland (und in den schottischen Highlands), hatte der Ernterückgang die verheerendsten Folgen, weil man auf etwa einem Drittel der bebaubaren Fläche Kartoffeln anbaute, während man in Württemberg nur 3 bis acht Prozent dafür nutzte. Deshalb verhungerten auf der Insel zwischen 1845 und 1852 mindestens eine Million Menschen. Weitere ein bis zwei Millionen entkamen dem Hungertod nur dadurch, dass sie auswanderten – vor allem in die USA. Am Ende der Hungersnot lebte in Irland ein Fünftel bis ein Viertel weniger Menschen als vorher.

Damit sind die Grünen mit den Biobauern die größten Lebensmittel-Vernichter

Zitierungen aus einem lesenswerten Artikel, von dem die Überschrift zu diesem übernommen wurde.

Novo Argumente, Ludger Wes: [1] Schluss mit der Lebensmittel-Verschwendung
Oft wird den Discountern und Verbrauchern unterstellt, sie würden in großem Maße Lebensmittel verschwenden. Doch an anderer Stelle werden viel mehr Lebensmittel verschwendet.
Verschwendung Biolandbau
Aufmerksame Leser ahnen es: Es geht um den Biolandbau. Der hat in diesem Jahr bei Kartoffeln, Wein, Weizen und Gurken extreme Ernteausfälle zu verzeichnen; in einzelnen Regionen verdarben 30-50 Prozent der Ernte, in anderen 100 Prozent. Als Ursache geben die Ökobauern das feuchte Wetter an, das das Wachstum von Schädlingen wie dem Falschen Mehltau oder der Kraut- und Knollenfäule begünstigt habe.
Das ist jedoch nur die halbe Wahrheit. Unter der Witterung hatten auch konventionell arbeitende Bauern zu leiden. Doch ihre Ertragseinbußen waren weitaus geringer, dank moderner Pflanzenschutzmittel.

Ernteverlust durch Agrarwende
Andreas von Tiedemann, Professor für Pflanzenpathologie und Pflanzenschutz an der Universität Göttingen, rechnete kürzlich bei einem
Vortrag in Göttingen vor, dass Weizen, Reis, Mais, Kartoffeln und Soja etwa 90 Prozent der Weltnahrungsmittel ausmachen. Pro Jahr geht etwa ein Drittel davon durch Krankheiten und Schädlinge verloren. Ohne Pflanzenschutzmittel wären es zwei Drittel. Verluste bei Lagerung und Transport sind dabei noch nicht eingerechnet.
Von Tiedemann erinnerte daran, dass die Gelbrost-Epidemie, die sich seit 2010 in Europa ausbreitet, ohne den Einsatz von Pestiziden 60 Prozent der hiesigen Weizenernte vernichten würde. Ohne Pflanzenschutzmittel würde für Weizen, Gerste, Raps und Kartoffeln eine doppelt so große Anbaufläche benötigt, um die gleichen Erträge wie mit Pestiziden zu erzielen. Die von der Partei Die Grünen und von Umweltschützern geforderte Agrarwende mit Umstellung auf 100 Prozent Bio würde, so von Tiedemann, einen Ernterückgang von 20 bis 50 Prozent bedeuten. In diesem Jahr würden deutsche Landwirte dann womöglich gar keinen
Wein, kaum Kartoffeln und Gurken und nur minderwertigen Weizen ernten.

Das Beispiel zeigt: Bio ist eine Luxuswirtschaftsweise für Menschen in Ländern, in denen die Läden von Nahrungsmitteln überquellen. Menschen in solchen Ländern können es sich leisten, Feldfrüchte auf Hunderttausenden von Hektar vergammeln zu lassen. Mutwillig auf bewährte, jahrelang getestete Pflanzenschutzmittel zu verzichten, bedeutet, die Verschwendung von Ressourcen und Lebensmitteln in großem Maßstab in Kauf zu nehmen. Wer so handelt, hat kein Recht, Unternehmen und Menschen zu verurteilen, die Lebensmittel wegwerfen.
Es scheint also, dass die Verschwendung von Nahrungsmitteln im Ökolandbau zur Standardpraxis gehört. Dank der hohen Preise lässt sich auch dann noch Geld verdienen, wenn ein Großteil der Ernte den Schädlingen überlassen wird. Gelebte Nachhaltigkeit?

Das Klima des Jahres 2016

In einigen Publizierungen wurde das Wetter dieses Jahres und die langfristige „Einsortierung“ bereits dargestellt:

Klima-Monatsrückschau August 2016

Im Klimawandel nicht Neues, der Juli 2016 war im Mittel wieder zu warm

Nachdem vor allem die Feuchte den Biobauern zu schaffen machte, anbei die Niederschlagsdaten der Vegetationsperiode. Dieser lag dieses Jahr im Vertrauensbereich der Mittelwerte und innerhalb eines Bereiches, der dem Wert seit 1881 entspricht. Und trotzdem war es für die Biobauern bereits ein Fiasko. Was passiert erst, wenn das Wetter wie von den Grünen gefordert, noch schlechter wird?


Bild 6 Niederschlag Deutschland Frühling von 1881 – 2016. Vom Autor aus dem DWD-Datensatz erstellt

Bild 7 Niederschlag Deutschland Sommer von 1881 – 2016. Vom Autor aus dem DWD-Datensatz erstellt

An den Niederschlagsdaten kann man natürlich auch sehen, dass der ominöse Klimawandel in Deutschland bis auf einen geringen Anstieg der Temperaturen (nachdem vorher eine Kaltzeit war) mit keinem sonstigen Klimaparameter feststellbar ist. Da die Daten bis zum August 2016 reichen, lässt sich das Gerede immer weiter steigender Niederschläge (wärmer = mehr Niederschlag) auch in das Land der Klimafabeln verweisen. Jedenfalls lässt sich weder für den Frühling noch den Sommer ein statistischer Unterschied zum Beginn der Messreihe im Jahr 1881 feststellen. Auch die Variabilität nimmt nicht zu, wie es die goldenen Jahres-Differenz-Werte seit 1881 zeigen.

Bonner Politik ist inzwischen zur reinen Umsetzung von Ideologie verkommen

Von der Idee, sich an der Wirklichkeit zu orientieren und dazu glaubhafte Politik zu machen, haben sich die Koalitionsparteien längst verabschiedet. Es ist unfassbar, wie schnell, problemlos und konsequent es einer in Agitation geschulten Person gelang, eine komplette Parteienlandschaft zum reinen Marionettentheater zu degradieren – und wie unsere „Eliten“ wieder dazu überlaufen.
Nun war das Thema Landwirtschaft schon immer fest in Lobbyisten-Hand. Aber nun wird dies selbst in den C-Parteien im Bemühen, die Grünen unbedingt überholen zu müssen, stur um eine ideologische Komponente erweitert: Bayerischer Klimakongress 2016 in Würzburg.

Was auf Landesebene gilt, gilt natürlich auf Bundesebene:

BMEL: Eine Zukunftsstrategie für den ökologischen Landbau

Bei der Kick-Off-Veranstaltung im BMEL in Berlin hat Bundeslandwirtschaftsminister Christian Schmidt am 19. Mai 2015 den offiziellen Startschuss für die Entwicklung der "Zukunftsstrategie Ökologischer Landbau" gegeben. "Die Öko-Landwirtschaft leistet schon heute einen entscheidenden Beitrag zu unserer Ernährung! Ihr Potenzial will ich voll auszuschöpfen!", unterstrich Schmidt.

Umweltbundesamt: Ziel der Bundesregierung ist es, den Ökologischen Landbau in Deutschland weiter zu stärken. Hierzu soll der Anteil der ökologisch bewirtschafteten Fläche an der gesamten landwirtschaftlich genutzten Fläche in Deutschland auf 20 % erhöht werden.

Wie in Berlin aber allgegenwärtig, gibt es Ressorts, welche jeden Unsinn noch wagen zu übertrumpfen. Frau Hendricks will eine Abgabe auf Pflanzenschutzmittel:

Klimaretter.Info 08.09.3015: Hendricks fordert stärkeres Ministerium
"Heutige Landwirtschaft ist auch nicht gut für Bauern"… auf Pflanzenschutzmittel soll es künftig eine Abgabe geben.

Damit nicht etwa noch im Ansatz so etwas Vernunft diese Erntevernichtung und Frau Hendricks Anweisungen topedieren kann, soll es per Machterweiterung geschehen:

Klimaretter.Info 08.09.3015: … Und fordert ein neues Initiativrecht für ihr Haus – "zur Stärkung der Umweltpolitik des Bundes". Berater empfahlen Hendricks, ein Vetorecht zu fordern

Das würde bedeuten: Die Umweltministerin kann – im Einvernehmen mit der Bundeskanzlerin – verlangen, dass sie sich auch mit Angelegenheiten befassen darf, die eigentlich in den Geschäftsbereich eines anderen Ministeriums gehören.

Wer die Maßnahmen und vor allem unreflektierende Klimahysterie von Frau Hendricks und ihrem Ministerium verfolg, ahnt was das bedeutet: (Noch) denkbare Opposition soll in Zukunft von vornherein ausgeschaltet werden, damit Frau Merkel weiterhin international als Vorreiterin der Klimarettung brillieren kann.

Anmerkung:
Damit soll nicht gesagt werden, dass die industrielle Landwirtschaft in jeder Form immer problemlos und allein selig machend wäre. Aber von einer Seite zur anderen zu überschlagen, sind keine erfolgreichen Zukunftsszenarien.

Die Hopfenbauern machen vor, wie man mit Verzicht auf Ideologie mit gezielter Pflanzenzüchtung und gekonntem (und nicht ideologisch verbotenem) Planzenschutzmittel-Einsatz beides in Einklang bekommen kann.

agrar heute 18.08.2007: Laut dem Industrieverband hat sich gerade beim Hopfen in der Vergangenheit eine erstaunliche Entwicklung vollzogen. Der Ertrag an Alphasäure, der eigentlichen Bierzutat, konnte durch moderne Sorten von 50 auf 400 Kilogramm pro Hektar gesteigert werden. Auch im Pflanzenschutz gab es laut dem Industrieverband beispielhafte Fortschritte. Pilzkrankheiten hätten noch vor 30 Jahren 15 bis 16 Spritzungen im Jahr erfordert. Seither sei in der Hallertau ein raffiniertes Vorhersagesystem für Pilzkrankheiten entwickelt worden. An zahlreichen Beobachtungsstellen werde täglich die Anzahl der Pilzsporen ermittelt. Erreichen sie eine bestimmte Schwelle, werden die Hopfenpflanzer per SMS oder Fax informiert, dass sie eingreifen müssen. Dadurch hätten die Spritzungen bei den modernen toleranten Sorten auf zwei bis vier in der Vegetationsperiode reduziert werden können.

Quellen

[1]
Novo Argumente, Ludger Wes: Schluss mit der Lebensmittel­verschwendung
https://www.novo-argumente.com/artikel/schluss_mit_der_lebensmittelverschwendung

[2]
WELT, 19.08.2016: Schlechte Ernte 2016 bringt Bauern in Bedrängnis
https://beta.welt.de/newsticker/dpa_nt/infoline_nt/wirtschaft_nt/article157749020/Schlechte-Ernte-2016-bringt-Bauern-in-Bedraengnis.html?wtrid=crossdevice.welt.desktop.vwo.google-referrer.home-spliturl&betaredirect=true

[3]
Bundesministerium für Ernährung und Landwirtschaft, Bericht Ernte 2016

[4]
TELEPOLIS 22.08.2016: Kartoffelernte würde ohne Pflanzenschutzmittel weitgehend ausfallen
http://www.heise.de/tp/artikel/49/49188/1.html

[5]
DIE WELT 11.08.16: Ernteausfälle bei Bio-Gurken im Spreewald
http://www.welt.de/regionales/berlin/article157605956/Ernteausfaelle-bei-Bio-Gurken-im-Spreewald.html

[6]
Neue Zürcher Zeitung 4.8.2016: Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?




Substanzlose Endlagersuche

Zum Artikel der F.A.Z vom 5. August: „Neue Köpfe für die Suche nach dem Atomendlager“ von Herrn Mihm habe ich den veröffentlichten Leserbrief vom 11. August in der F.A.Z „Substanzlose Endlagersuche“ geschrieben, der dieser unglaublichen Geschichte folgt.

Wiesbadener Kurier, 26.09.16         

Die unglaubliche Geschichte von Gorleben, das weltweit zu den technisch     aussichtsreichsten Endlagerprojekten gehört(e)!

„Neue Köpfe für die Suche nach dem Atomendlager“ F.A.Z:

     „ … Jetzt haben BGE und BfE auch Gesichter. Bundesumweltministerin Barbara Hendricks (SPD) hat deren Leiter ernannt. Es sind alte Bekannte, und sie bilden das Spektrum der politischen Farben ab: Schwarz, Rot und Grün. Die dem Ministerium unterstellte Endlagergesellschaft bekommt gleich drei Geschäftsführer: Ursula Heinen-Esser, Ewold Seeba und Hans-Albert Lennartz …“ (F.A.Z. vom 5. August 2016)

Dr. Barbara Hendricks SPD:

BundesumweltministerIn, in deren Ressort die Endlagerung bzw. Untertagedeponierung von radioaktiven „Abfällen“ liegt, brilliert öffentlich mit ihren markanten Ansichten zur Endlagerung:

 2013: „Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort … Für sie als überzeugte Christin sei es immer ‚gotteslästerlich‘ gewesen, dass Menschen dachten, sie könnten etwas für Millionen Jahre garantieren …“ (RHEINISCH POST vom 21.12.2013). Dazu sei angemerkt:

– Das soll wohl bedeuten, dass nach ihrer Meinung die bisherigen Untersuchungen und Ergebnisse von Gorleben nicht nach strengen wissenschaftlichen Kriterien durchgeführt worden sind. Darauf kann man nur mit einem Sprichwort antworten: Schuster bleib bei Deinem Leisten.

– Es ist im wahrsten Sinne des Worte realitätsfremd, einen „bestmöglichen“ Standort zu fordern. Gefragt ist ein lange Zeit sicheres Endlager bzw. eine für eine lange Zeit sichere Untertage-Deponie (Synonyme). Denn bei der Forderung ‚bestmöglich‘ müssten dafür mehrere Standorte bis zur Eignungsaussage untersucht und diese Ergebnisse dann miteinander verglichen werden, ohne dabei den sichersten Standort wirklich zu finden, denn es könnte ja noch einen besseren geben, der nicht untersucht wurde.

– Auch ist es fachfremd, ein für eine lange Zeit sicheres Endlager/Untertage-Deponie zu konzipieren, bei dem für 300 Jahre eine Rückholung der „Abfälle“ möglich sein soll: Ein Friedhof kann nicht gleichzeitig ein Krankenhaus sein. Ende ist Ende. Diese Forderung hat keinen rationalen, sondern einen taktisch geschickten ideologischen Hintergrund. Mit ihr ist das viel versprechende geologische Medium Salz aus dem Rennen, denn Salz schweißt als einziges den „Müll“ sehr schnell für lange Zeit sicher ein – und damit ist Gorleben mit dieser eigentlichen sicheren Lösung vom Tisch. Für Zwischenlager eignen sich Stollen oder Hallen.

– Abgebrannte Brennelemente haben nach ca. 600.000 Jahren den Wert der natürlichen Strahlung erreicht. Kokillen mit „Abfällen“ aus wieder aufgearbeiteten Brennelementen nach ca. 300.000 Jahren und der „Müll“ aus „transmutierten“  Brennelementen nur noch nach ca. 300 Jahren. Warum dann die Forderung für eine Million Jahre? Diese Thema wurde wohl aus gutem Grund in dem Kommission-Bericht (Kapitel 542, Teil B, S.128) kaum angesprochen, obwohl es von kompetenten Fachleuten des Instituts für Festkörper-Kernphysik gGmbH Berlin, also von außerhalb der Kommission Vorschläge, dazu gegeben hat (Ruprecht, G.: 10.06.16 EIKE: Das Ende der Endlagerkommission).

 2014: am 10. April  (ZEIT ONLINE, NEWSTICKER) machte sie die Aussage „ … sie hält ein Ausscheiden des Salzstocks Gorleben aus der Suche nach einem Atommüll-Endlager für möglich. Sie könne es sich ’sehr gut vorstellen‘, dass Gorleben nach wissenschaftlichen Kriterien nicht in Frage kommt. Eine ‚politische Vorfestlegung‘ gegen Gorleben könne es aber nicht geben, betonte sie. Gorleben müsse genauso untersucht werden wie alle anderen denkbaren Standorte…“. Die Ergebnisse der „Vorläufigen Sicherheitsanalyse Gorleben (VSG)“ scheinen ihr vorenthalten worden zu sein. Auch im Endlagersuchgesetz steht etwas anderes.

 2016: am 5.7.2016 um 17.51 Uhr sagte sie im NDR:  „ … sollten wir uns hüten, bei der Bewältigung dieser Jahrtausendaufgabe auf Zeit zu spielen …“.

Diese Einschätzung könnte heute schon überholt sein. Siehe meinen folgenden Leserbrief vom 11.08.2016.

Ursula Heinen Esser:

 Diplom-Volkswirtin; seit 1983 Mitglied der CDU: Politikerin, von 2009 bis 2013 Parlamentarische Staatssekretärin im Bundesumweltministerium, zuerst unter Norbert Röttgen, dann unter Peter Altmaier. Damals hatte sie die Verlängerung der AKW- Laufzeit unterstützt und im „Untersuchungsausschuss“ zu Gorleben die Meinung der CDU/CSU und FDP mitgetragen: „aus heutiger Sicht sei die Erkundung (von Gorleben) geradezu beispielhaft und fortschrittlich“.

 In dieser Legislaturperiode hat sie das Endlagersuchgesetz mitgestaltet, mit dem Gorleben „quasi“ verboten worden ist, war Vorsitzende der Atommüll-Kommission und wurde nun Vorsitzende der Geschäftsführung der neu gegründeten Bundesgesellschaft für Endlagerung (BGE).

 Zur Asse schrieb sie einmal als Antwort auf Nachfrage von Bärbel Höhn, B’90/DIE GRÜNEN,

Um den beobachteten Anstieg der Krebsfälle durch Strahlung erklären zu können, müsse die Dosis etwa 10 000 Mal höher sein als beobachtet“.

Trotzdem unterstützt sie später als Mitglied der „Frauenkonsensgruppe Asse“, bestehend aus Vertreterinnen der CDU, FDP, SPD und B’90/DIE GRÜNEN, die jeder strahlenrelevanten Vernunft widersprechende Rückholung der nur noch schwachen und immer schwächer werdenden radioaktiven Abfälle (Halbwertzeiten), deren Zwischenlagerung und deren erneute Entsorgung in der Untertage-Deponie „Schacht Konrad.“ In La Paz, Bolivien, das knapp zwischen 3500 und 4000 m über NN liegt, ist die ewige natürliche Strahlung beträchtlich höher als bei der Asse. Dort leben mehr als 800.000 Menschen. Sie werden nicht evakuiert. 

Dieser kurze Abriss zeigt beispielhaft, wie bei der Endlagerwende ein politisch hochgelobter, sehr teurer Konsens gegen einen vielfach dokumentierten fachlich positiven Kenntnisstand der vorigen Endlagerung an den Bürgern vorbei sich durchgesetzt hat. Dies ist ein Rückschritt beim heutigen rasant wachsenden Wissen- und Technologiefortschritt. Hauptsache, man kann dieses Vorgehen für politische und auch eigene Zwecke nutzen wie im DER SPIEGEL zu lesen ist: „… es geht auch um Pfründe und Einfluss, um Gefälligkeiten und Personalpolitik und um die Frage, wer sich den Zugriff auf die wichtigsten Posten sichern kann …“. Und es ist auch ein nicht zu übersehender Hinweis der CDU, zum Machterhalt auf die ökologistischen Wünsche ihres zukünftigen Wunsch-Koalitionspartners B’90/DIE GRÜNEN einzugehen, wie wir schon vor zwanzig Jahren in unserem Politthriller „DIE GERMAN ANGST“ im letzten Kapitel angedeutet haben. Dort sagte der romanhafte Vater des Ökosozialismus Karl: „… Denn jetzt betteln sogar die Konservativen schon bei seinen ideologisch gestählten Polittruppen darum, sie bei ihrem Wunsch zum Machterhalt zu unterstützen. …“ Ein Wunsch-Partner, der weiterhin mit demokratisch nicht legitimierten und um Spenden buhlende Hilfstruppen, wie beispielhaft den NGOs, taktisch geschickt Angst vor Allem erweckt, um weiter an der Macht zu bleiben. Und dann dürften diese auch schnell im politischen Konsens eine hoch subventionierte totale Kohlenstoffwende für Deutschland einfordern. Laut der F.A.Z. vom 27. August fand in diesem Sinne ein gemeinsames Abendessen zwischen der Bundeskanzlerin (CDU) und dem Ministerpräsidenten von Baden-Württemberg (B’90/DIE GRÜNEN) statt, der angeblich meint: „… Schwarz-Grüne passe in die Zeit“!

„ …In der Rolle folgen wird ihm der heutige Präsident des Bundesamtes für     Strahlenschutz, Wolfram König. Der ausgewiesene Entsorgungsexperte König ist 58 Jahre alt, Mitglied der Grünen und war einmal Umwelt-Staatssekretär in Sachsen-Anhalt. Er leitet das BfS, das mit der neuen Behördenstruktur zahlreiche Aufgaben abgeben muss.“ (F.A.Z. vom 5. August 2016).

Wolfram König:

1998 nach der Machtübernahme der Regierung durch die SPD und durch das B’90/DIE GRÜNEN wurde von dem grünen Politiker Trittin, neuer Bundesumweltminister, umgehend sein Parteigenosse König zum Präsidenten des Bundesamtes für Strahlenschutz (BfS) ernannt. Mit dieser Auswahl eines Fachfremden wurde schnell erkennbar, dass damit eines der wichtigsten strategischen Ziele der rot-grünen Regierungskoalition erreicht war: Aus der Behörde von innen heraus taktisch, medial und publikumswirksam zusammen mit politisch gleich gesinnten NGOs die Endlagerung in Deutschland subtil zu stören, zu verzögern, zu unterbrechen und letztendlich zu verhindern. Dieses Ziel hat er inzwischen erfolgreich erreicht. Trotzdem wird er heute als ausgewiesener Entsorgungsexperte gelobt. Zynischer kann man diese Einschätzung der Öffentlichkeit nicht näher bringen.

♦ 2000: zehnjähriges Moratorium für weitere Untersuchungen in Gorleben durchgesetzt.

 2001: Ergebnis der Bewertung des Moratoriums durch eine Internationale Expertengruppe (IEG): Ein Moratorium ist fachlich nicht gerechtfertigt. Wird vom BfS nicht zur Kenntnis genommen, denn es wird in keinem vom BMU und BfS initiierten Bericht erwähnt. Passte wohl nicht in das politishe Konzept des BfS! 

 2001(11. Juni) Vereinbarung zwischen Bundesregierung und den Energieversorgungsunternehmen, dass nichts gegen Gorleben spricht.

 2002: Das Ergebnis des Abschlussberichtes des unabhängigen Arbeitskreises Auswahlverfahren Endlagerstandorte (AkEnd), den der damalige Bundesumweltminister Trittin 1999 vergeben hat, lag vor. Der Arbeitskreis hatte die Aufgabe, alle fundierten Kriterien aufzustellen und zu bearbeiten, die bei einer landesweiten Endlagersuche wichtig sind. Dort sind praktisch schon alle Endlager-relevanten Themen ausführlich behandelt, wie z.B. unterschiedliche Gesteinsformationen, Erkundung, Strahlenschutz, Langzeitsicherheit, Auswahlverfahren,  Öffentlichkeitsbeteiligung, Chancen für die Entwicklung der Standortregionen und vieles mehr. Trotzdem werden jetzt nach der Endlagerwende nochmals die gleichen Kriterien erarbeitet, das heißt, das Rad der Erkenntnis soll unter enormen personellem und monetärem Aufwand neu erfunden werden. 

 2002: Anstatt die damals schon versprochene deutliche Verbesserungen der Transparenz ab jetzt durch eine sachliche und vollständigen Öffentlichkeitsarbeit zu realisieren, wie es in dem AkEndbericht (Kapitel 3 ) sehr deutlich beschrieben wird, wurde vom BfS im Tagesgeschäft zum Thema Gorleben genau das Gegenteil gepflegt.

 2003 – 2005: Beauftragung der BGR durch das BfS, eine Gesamtanalyse zur Entsorgung von radioaktiven Abfällen in Deutschland zu erstellen: Ergebnis: positive Bewertung der geologischen Befunde zu Gorleben. Nichts spricht gegen eine Weiterführung der Untersuchungen.

 2005: Die von der rot-grünen Bundesregierung erhobenen Zweifelsfragen von 2001 sind mit  dieser Einschätzung abgearbeitet. Trotzdem wird das Moratorium nicht aufgehoben.

 Seit 2000: Positive Verlautbarungen zu Gorleben, die vom BfS der Öffentlichkeit sehr zurückhaltend mitgeteilt wurden:

            – Zwischen der Bundesregierung und dem BfS

            – des Bundesrates

            – des Bundesrechnungshofes

            – und von zahlreichen anerkannten Sachverständigen.

 Seit 1997: Unwidersprochene negative Verlautbarungen zu Gorleben:

            – jahrzehntelang von NGOs wie Greenpeace; BUND etc.

            – Gruppe Ökologie (1998) im Jahresbericht der Heinrich Böll Stiftung

            – in der Koalitionsvereinbarung zwischen der SPD und B’90/DIE GRÜNEN (1998) etc..

 2010: In einer gemeinsamen Erklärung von Bundesminister Röttgen und vom Präsidenten König (BfS) heißt es: Zum 1. Oktober wird das Moratorium wieder aufgehoben.

 2013: Der 424 seitige Bericht „Vorläufige Sicherheitsanalyse Gorleben (VGS)“, der die Ergebnisse zahlreicher Einzelberichte von insgesamt 5628 Seiten zusammenfasst, erstellt unter der Leitung der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS), der knapp 8 Millionen Euro gekostet hat, enthält keine Aussagen, die gegen die Eignung von Gorleben sprechen. Der Gesamtbericht ist für Jedermann im Internet zu finden und kann von jedem, der lesen kann, gelesen werden.

 2014: Trotzdem wurde im Konsens aller Parteien die ursprünglich geplante Bewertung des Berichtes durch eine neutrale Peer-Review-Fachgruppe beauftragt, entweder durch die EU, die IAEA oder die OECD/NEA, am 27. Juli 2014 also schon nach vier Tagen panikartig abgesagt, nachdem diese Vergabe durch das Endlagersuchgesetz am 23. Juli 2014 per Gesetz verboten worden ist. Diese Panik beweist die Riesenangst der Anti-Gorleben Ideologen in der Regierung vor der fachlichen Bewertung der VSG-Studie durch eine neutrale Instanz – genauso wie der Teufel eine Riesenangst vor dem Weihwasser hat. Warum wohl? 

 2014: die Ergebnisse des GRS-Studie, die vom BfS wie häufig bei anderen positiven Bewertungen von Gorleben auch nicht aktiv und mediengerecht verbreitete oder nicht verbreitet werden durften, waren dem Niedersächsischen Umweltminister Stefan Wenzel (B’90/DIE GRÜNEN) anscheinend auch nicht bekannt. Denn in seiner Antwort auf die von der FDP parlamentarisch vorgebrachte Frage, welche Fakten gegen eine Eignung von Gorleben sprächen, hat er nur die 9 kurzen, negativen Meinungsäußerungen (17. Wahlperiode Drucksache 17/1799) genannt, die fast ausschließlich in den späten 90iger Jahren von seinen grünen Parteigenossen und NGOs erstellt wurden. In mehreren Fällen mussten die Ergebnisse von der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) inhaltlich korrigiert werden. Die positiven Ergebnisse der VSG-Studie wurden wohlweislich nicht genannt. Warum wohl? Kannte er sie nicht oder wollte er nicht?

 2016: Wenzel und König verkünden am 16. Mai (wendland-net.de), dass sich die Arbeiten zur Vorbereitung des Offenhaltungsbetriebes verzögern werden. Deshalb muss der Hauptbetriebsplan bis zum 31.12.2017 notgedrungen verlängert werden.

 2016: In seinem Leserbrief vom 03. Mai 2016 in der F.A.Z und in mehreren anderen Zeitungen „Millionenschwere Subvention“ meint Herr Amannsberger, früherer Leiter des Präsidial-Büros im BfS, dass alle Kosten für Gorleben aus Gründen des Verursacherprinzips, verbunden mit Kapitalismuskritik, von der E-Wirtschaft zu tragen sind. Dabei verleugnet er wider besseres Wissen – er gehörte ja zu den Insidern –, dass in Wirklichkeit die wahren Verursacher der immensen zukünftigen Kosten die Politik aller Parteien ist. Kann man hier möglicherweise noch den langjährigen Geist des BfS erkennen?

Mit der Regierungsübernahme von SPD und B’90/DIE GRÜNEN in 1998 und der seit 2013 bestehenden Großen Koalition von CDU/CSU und SPD, insbesondere nach der Fukushima Havarie,  wurde die von der grünen Bewegung taktisch sehr geschickt gesteuerte „Quasi-Zerstörung“ von Gorleben erreicht. Bei der Wende zur neudeutschen Endlagerung handelt es sich nicht um eine objektive Entscheidung, sondern um eine machtpolitische. Wie mit der „Energiewende“ des grünen Masterminds Baake und wie auch mit der „Endlagerwende“ des grünen Masterminds König sind nicht nur für grüne Parteigenossen langfristig lukrative Beamtenstellen sowie eine ausufernde Bürokratie geschaffen worden, sondern es wurde eine weitere, sehr sehr teure Sackgasse für die Steuerzahler geöffnet, die von der deutschen Öffentlichkeit erst mittelfristig erkannt werden wird. Denn schon heute stellt sich die spannende Frage, ob man überhaupt  noch ein Endlager in 50 Jahren für den dann wertvollen Energie-Rohstoff „Atommüll“ benötigt.

                             Der ökosozialistische Zeitgeist hat es geschafft!

                                                   Gorleben ist Geschichte!

Mit dem noch verbleibenden Galgenhumor kann man die heutige Situation in Deutschland nur noch in einem Gedicht zusammenfassen

Minister Stefan Wenzel lud am 28 Juli ein; ein "großes Gespräch" sollt‘ es sein.

Im Leineschloss traf sich die Runde, beharkte sich so manche Stunde.

Man labert und man diskutiert – ob dies auch zum Konsens mal führt?

Was ist das Fazit denn gewesen? Man konnte es in der Zeitung lesen:

Statt "Konsens" nur "Nonsensens" – leider! Nur Rechthaberei –

bringt die uns weiter?

Wer löst die Fragen aller Fragen, die ungelöst in all den Tagen?

Wo bleibt der Müll, der atomare? Hier gibt es Streit schon viele Jahre!

Ich sehe für die Lösung schwarz! Beginnt die Suche man am Harz?

Versucht man es am Nordsee-Strand? Oder anderswo im Land?

Der Schwarzwald käme auch in Frage – dort im Granit, tief unter Tage…

Doch unser Landesbischof Meister reaktiviert nun alte Geister,

indem er lautstark konstatiert: Die Wissenschaft hat sich geirrt!

Die Theologie besitzt die Wahrheit – das sage ich in aller Klarheit.

(Galileo musst‘ es einst schon spüren und seine Thesen revozieren…)

Gemeinsam gehen sie jetzt ran: Bei „Null“ fängt alles wieder an.

Die Theologen vorneweg; zieh’n sie die Karre aus dem Dreck?

Gestützt von Greenpeace, NABU, BUND; läuft künftig dann die Sache rund?

Bin schon gespannt, ob das was bringt und ob es wirklich jetzt gelingt,

zu einem Standort „ ja“ zu sagen, statt alte Schlachten neu zu schlagen!

Rudolf Eberhart, Gedichtesammlung

Eigenverlag, NAEBev

Substanzlose Endlagersuche (Mein veröffentlichter Leserbrief vom 11.08.2016 in der F.A.Z.)

Zum Artikel „Neue Köpfe für die Suche nach dem Atomendlager“ (F.A.Z. vom 5. August). Die neue Bundesgesellschaft für Endlagerung und das ebenfalls neue Bundesamt für kerntechnische Entsorgungssicherheit sowie das verkleinerte Bundesamt für Strahlenschutz sollen in den nächsten Jahrzehnten in Deutschland ein Endlager errichten, um den Atomabfall eine Million Jahre langzeitsicher zu vergraben. Bei diesem über mehrere Jahrzehnte dauernden und sehr teuren Unterfangen scheinen jedoch physikalische und chemische Gesetze sowie absehbare technische Entwicklungen außer Sichtweite geraten zu sein. Der sogenannte „Atommüll“ ist eine nationale und nachhaltige Energie-Rohstoff-Reserve für Deutschland, die die natürlichen Energieressourcen (Öl, Gas, Kohle, Uran) schonen kann: Abgebrannte Brennelemente enthalten energetisch nutzbare Nuklide, die heute schon bei wieder aufgearbeiteten Brennstäben eingesetzt werden. Die dabei entstehenden Reststoffe lassen sich in einer zweiten Recyclingstufe mittels des Transmutationsverfahrens zu neuen Brennstäben verarbeiten und abermals zur Stromerzeugung nutzen. Obwohl dieses Verfahren heute weder technisch noch ökonomisch voll ausgereift ist, wird in zahlreichen Ländern an seiner Optimierung gearbeitet. In Russland werden sogar heute schon nach diesem Verfahren hergestellte Brennelemente in Kernkraftwerken eingesetzt. In den nächsten Jahrzehnten dürfte sich außerhalb Deutschlands dieses zweite Recycling von sogenanntem „Atommüll“ weltweit als wichtiger Beitrag zur Stromerzeugung erweisen und zwar noch bevor ein Endlagerstandort in Deutschland gefunden, untersucht und genehmigt ist: Geschieht das im Jahre 2050 oder 2060? Diesen Standort würde man dann nicht mehr benötigen, da die nach der zweiten Recyclingstufe verbleibende Strahlung des restlichen Atommülls schon nach etwa 300 Jahren der natürlichen Strahlung entspricht. Oberflächlich wirkt das Konzept der deutschen Endlagerpolitik ausgearbeitet und beeindruckend, es fehlt ihm jedoch aus wissenschaftlichen, technischen, wirtschaftlichen und ökologischen Gründen jede Substanz.