Cem Özdemir versucht sich in Energie

Voller Text des Videos
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Ein Hinweis sei angemerkt: Herr Özdemir sagt im Video wirklich Gigabyte anstelle Gigawatt zur elektrischen Leistung.
Damit wollte er vielleicht ausdrücken, dass die Kenntnis von ein paar modernen (aber nicht verstandenen) Fachausdrücken für Politiker mindestens so weit zum Verständnis eines landesweiten Energiesystems ausreicht, um weichenstellende Entscheidungen (zu dessen Zerstörung) einleiten zu dürfen.

Das Interview wurde Anfang 2011 aufgezeichnet. Zur Rezension muss man deshalb die damals bekannten Daten des Jahres 2010, teilweise eventuell vom Jahr 2011 betrachten.
Dazu die Energieganglinien Deutschlands im Jahr 2012 (leider kann man bei Agora kein früheres Datum aufrufen).
Das mit den 80 Gigawatt Spitzenbedarf stimmt so im Ansatz und dürfte im Jahr 2010 nicht wesentlich abgewichen haben.

Bild 1 Energieganglinie 2012. Quelle: Agora Viewer

Wie Herr Özdemir allerdings darauf kommt, dass 140 Gigawatt produziert würden, bleibt ein Rätsel. Bestimmt hat Herr Özdemir auch dabei wieder eines seiner auswendig gelernten, technischen Fremdwörter verwechselt und die installierte Leistung gemeint.

Bild 2 Installierte Netto-Leistungen der verschiedenen Energieerzeuger 2002 – 2017. Quelle: Fraunhofer ISE Viewer

Die installierte Nettoleistung im Jahr 2010 betrug ca. 155 MW. Die der konventionellen Kraftwerke betrug davon 98,2 GW und Ökoenergie hatte die Anschlussleistung von ca. 57 GW

Bild 3 Installierte Nettoleistungen im Jahr 2010 und 2011. Quelle: Fraunhofer ISE Viewer

Da Herr Özdemir im Video behauptet: … Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen …,
zeigt es, dass er die Problematik zwischen installierter Leistung und wirklich verfügbarer Energie auch nicht verstanden hat.
Die „Erneuerbaren Energien“ haben immer noch die dumme Eigenschaft, dass ihre wirklich lieferbare Energie für verblüffend lange Zeit fast auf Null sinken kann [1].
Bei Solar akzeptieren es schon immer mehr der „Energiefachpersonen“, weil es einfach zu offensichtlich ist, dass die Sonne nachts nicht scheint. Beim Wind gilt es als strittig [2] [1]. Schließlich kann man niemanden zwingen, die Ganglinie im Agora-Viewer anzusehen und willigste „Energieforscher“ integrieren dann halt schnell einmal ganz Europa ins deutsche Stromsystem [3].

Nach dem Agorameter, welches die Energieflüsse von Deutschland zeigt, „verschwindet“ jedenfalls auch der Windstrom recht regelmäßig und dann müssen die konventionellen Erzeuger die gesamte Energie liefern, da sonst das Netz zusammenbricht, oder afrikanische (Stromausfall-)Verhältnisse auch bei uns eintreten.

Nimmt man an, dass von den konventionellen Kraftwerken kurzfristig immer 90 % der installierten Leistung verfügbar ist, und zählt man Biomasse zur sicheren Grundlast, dann betrug der Worst-Case „Energieüberhang“:
Im Jahr 2010:
„Energieüberhang“ +18 % (ohne Biomasse +10 %, zusätzlich ohne Kernkraftwerke -6 %)
Im Jahr 2011:
„Energieüberhang“ +4 % (ohne Biomasse -4 %, zusätzlich ohne Kernkraftwerke -10 %)

Das ist wirklich nicht viel und es ist bestimmt nichts „Übriges“ dabei, im Jahr 2011 war es sogar eher zu niedrig. Besser geeignet ist es als Beispiel, wie eine sachgerechte Planung früher für unser Energiesystem zuständiger Fachpersonen durch Politiker, die irgendwelche Fachbegriffe wie manche Schüler (falls dieser Vergleich diskriminierend sein sollte, einfach nicht lesen) auswendig lernen, zerstört werden darf.

Nicht einmal auf den genannten Zeitraum für die Spitzenlast kann man sich beim GRÜNEN Energiefachmann verlassen. Im Winter verschieben sich naturgemäß die Spitzenlastzeiten. Und zwar in Zeiten, zu denen das (im Winter sowieso „mickrige“ Solarangebot – und das vom Wind manchmal auch – nicht vorhanden sind.

Bild 4 Stromverbrauch 1. Januar 2017. Quelle: Agora Viewer

Bild 5 Stromverbrauch 18. Dezember 2016. Quelle: Agora Viewer

Quellen

[1] EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit

[3] KLIMARETTER.INFO, 20. Juli 2017: Europa kann Windstrom glätten




Einige der größten Gletscher außerhalb der Polar­gebiete stoßen vor, trotz globaler Erwär­mung

Der Studie zufolge waren Klimamodelle bislang nicht in der Lage, das Phänomen zu reproduzieren, welches verhindert, dass die Gletscher im Karakorum-Gebirge nicht wie die meisten anderen Gletscher in der Welt schrumpfen.

„Während sich die meisten Gletscher als Folge globaler Erwärmung zurückziehen, sind die Gletscher im Karakorum stabil oder wachsen sogar“, sagte Hayley Fowler, Mitautor der Studie und Professor an der Newcasle University.

Der Karakorum ist eines der am stärksten vergletscherten Gebirge der Welt außerhalb der Pole und enthält die zweit- und drittgrößten nicht polaren Gletscher. Auch der zweithöchste Berg der Welt, der K2 [oder Mount Godwin Austen, Anm. d. Übers.] befindet sich dort — Vertical Limit, anyone?

Der Studie zufolge könnte eine ,anomale Abkühlung‘ im Karakorum einen Einfluss auf die Flüsse haben, welche stark von der Eisschmelze abhängen. Sie nennen es den ,Karakorum Vortex‘.

Fowler: „Die meisten Klimamodelle zeigen sowohl sommers als auch winters im gesamten Gebiet Erwärmung. Allerdings hat unsere Studie ergeben, dass großräumige Zirkulationen die regionale Variabilität der Lufttemperaturen kontrollieren mit einer Abkühlung der Sommertemperaturen in jüngster Zeit. Dies zeigt, dass Klimamodelle dieses Phänomen nicht gut abbilden“.

Fowler ist nicht der Erste, der sich fragt, warum die Karakorum-Gletscher nicht wie von den Modellen prophezeit abschmelzen. Während der letzten Jahre sind diesbezüglich viele Studien veröffentlicht worden, in denen die gleiche Frage gestellt wird. Was ist da los?

Eine Studie aus dem Jahr 2014 zeigte, dass Klimamodelle dazu neigen, die Erwärmung im Karakorum zu übertreiben, das heißt, sie unterschätzten den Schneefall in der Region. Die Region erreichen kältere westliche Winde aus Afghanistan mit im Winter zunehmenden Schneefällen. In anderen Berggebieten regnet es mehr.

Die meisten anderen großen Gletscher ziehen sich Fowler zufolge zurück, was die Causa Karakorum nur noch interessanter macht. Dabei zeigen sich auch die Schwächen von Modell-Prophezeiungen [eigentlich zeigen die sich überall! Anm. d. Übers.]

Fowler weiter: „Aber das Zirkulationssystem bewirkt derzeit einen dämpfenden Effekt auf die globale Erwärmung [gibt es die überhaupt noch? Der Autor der Studie scheint doch stark alarmistisch angehaucht zu sein. Anm. d. Übers.], was die Gletscherschmelze im Karakorum reduziert, und jede Änderung hat sofort signifikante Auswirkungen auf Schmelzraten, welche wiederum ultimativ Auswirkungen auf die Flüsse der Region zeitigen“.

Link: https://wattsupwiththat.com/2017/08/12/some-of-the-worlds-largest-non-polar-glaciers-are-expanding-despite-global-warming/

Übersetzt von Chris Frey EIKE




Enthüllt: Ein Jahrzehnte alter Report der Regierung mit Klima­daten war völlig unge­eignet für den Zweck

Darin hieß es über diese Daten:

Es gibt darin Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen“, welche „dem in die Forschungsergebnisse gesetzten Vertrauen enge Grenzen ziehen“.

Die Personen, welche zu diesen Schlussfolgerungen gekommen waren, und deren Zugehörigkeit sind hier gelistet:

  • THOMAS R. KARL (Chair), National Climatic Data Center, Asheville, North Carolina
  • ROBERT E. DICKINSON,University of Arizona, Tucson
  • MAURICE BLACKMON,National Center for Atmospheric Research, Boulder, Colorado
  • BERT BOLIN,University of Stockholm, Sweden
  • JEFF DOZIER,University of California, Santa Barbara
  • WILLIAM P. ELLIOTT, NOAA/Air Resources Laboratory, Silver Spring, Maryland
  • JAMES GIRAYTYS, Certified Consulting Meteorologist,Winchester, Virginia
  • RICHARD E. HALLGREN,American Meteorological Society, Washington, D.C.
  • JAMES E. HANSEN, NASA/Goddard Institute for Space Studies, New York, New York
  • SYDNEY LEVITUS, NOAA/National Oceanic Data Center, Silver Spring, Maryland
  • GORDON MCBEAN, Environment Canada, Downsview, Ontario
  • GERALD MEEHL, National Center for Atmospheric Research, Boulder, Colorado
  • PHILIP E. MERILEES, Naval Research Laboratory, Monterey, California
  • ROBERTA BALSTAD MILLER, CIESIN, Columbia University, Palisades, New York
  • ROBERT G. QUAYLE, NOAA/National Climatic Data Center, Asheville, North Carolina
  • S. ICHTIAQUE RASOOL, University of New Hampshire, Durham
  • STEVEN W. RUNNING, University of Montana, Missoula
  • EDWARD S. SARACHIK, University of Washington, Seattle
  • WILLIAM H. SCHLESINGER, Duke University, Durham, North Carolina
  • KARL E. TAYLOR, Lawrence Livermore National Laboratory, Livermore, California
  • ANNE M. THOMPSON, NASA/Goddard Space Flight Center, Greenbelt, Maryland
  • Ex Officio Members
  • W. LAWRENCE GATES, Lawrence Livermore National Laboratory, Livermore, California
  • DOUGLAS G. MARTINSON, Lamont-Doherty Earth Observatory, Columbia University, Palisades, New York
  • SOROOSH SOROOSHIAN, University of Arizona, Tucson
  • PETER J. WEBSTER, University of Colorado, Boulder

Das sind prominente Namen. Viele dieser Personen hatten bedeutende Positionen im IPCC inne sowie bei der Ausbreitung von deren Verlautbarungen. Zum Beispiel war Gordon McBean der Vorsitzende des Informations-Treffens des IPCC in Villach in Österreich im Jahre 1985. Bert Brolin wurde zusammen mit Sir John Houghton zu den ersten stellvertretenden Vorsitzenden des IPCC berufen. Thomas Karl und James Hansen waren zwei dominante Persönlichkeiten hinsichtlich Datenkontrolle und Datenmanipulation bis zu ihrem gerade erfolgten Abgang.

Karl leitete die Studie und wusste daher besser als jeder andere, dass das Erreichen der gewünschten Ergebnisse, nämlich eine stetig steigende Temperatur während der über 120 Jahre instrumenteller Aufzeichnungen, durch die Unzulänglichkeit der Daten wesentlich vereinfacht wird. Sie ignorierten die Tatsache, dass die Unzulänglichkeit der Daten die von ihnen geplanten und durchgeführten Arbeiten völlig wertlos machte. Beispiel: Ausmaß, Dichte und Kontinuität der Daten sind vollkommen ungeeignet als Grundlage für ein mathematisches Computermodell des globalen Klimas. Kurz gesagt, sie wussten, dass sie Daten erzeugen, frisieren oder modifizieren mussten, um auch nur ein ungefähres Ergebnis zu erhalten. Die Schwierigkeit bestand darin, dass die Daten so schlecht waren, dass selbst nach deren Bearbeitung die Ergebnisse der Realität nicht nahegekommen waren.

Trotzdem blieb das IPCC diesen Daten verhaftet, obwohl an anderer Stelle entschieden worden war, die Anzahl der Stationen zu reduzieren und damit die Abdeckung noch weiter zu begrenzen. Es gab zwei Hauptgründe für diese Reduktion, nämlich die zunehmende Umleitung von Geldern zugunsten der Forschung bzgl. globaler Erwärmung und extensiver Computermodelle sowie die Vorgriffe auf Satelliten-Wetterdaten. NASA GISS erzeugte eine Graphik (Abbildung 1), um zu zeigen, was vor sich ging. Ich habe jede Graphik erweitert, um die wichtigen Details zu zeigen (Abbildungen 2, 3 und 4).

Abbildung 1

Löblicherweise haben sie die Daten aufbereitet, aber alles, was sich daraus ergab, war eine Betonung der Anomalien.

Abbildung 2

Wichtige Punkte:

Es gibt keine Station mit Aufzeichnungen über 130 Jahre hinaus

Es gibt etwa 300 Stationen mit Aufzeichnungen über 120 Jahre

Nahezu alle Stationen mit einer Länge der Reihen über 100 Jahre liegen im Ostteil der USA oder in Westeuropa

Abbildung 3

Wichtige Punkte:

Erste signifikante Abnahme nach dem Jahr 1960 in Erwartung von Satellitendaten.

Zweite Abnahme um 1995 in Verbindung mit einer Änderung der Finanzierung weg von Datensammeln und hin zu globaler Erwärmung sowie Reduktion der herangezogenen Stationen

Abbildung 2 zeigt ein Maximum der Stationsanzahl von etwa 7200, aber Abbildung 3 zeigt nur etwa 5500.

Abbildung 4

Wichtige Punkte:

Trotz der Reduktion der Anzahl der Stationen verringert sich die Abdeckung nur geringfügig. Wissenschaftlich ist das unmöglich.

Gegenwärtig sind 20% der Nordhemisphäre und 25% der Südhemisphäre nicht mit Daten abgedeckt.

Obwohl er nichts zu der Studie beigetragen hatte, kommentierte Kevin Trenberth deren Veröffentlichung so:

Es ist ganz klar, wir haben kein Klima-Beobachtungssystem … dies mag für viele Menschen ein Schock sein, welche davon ausgehen, dass wir angemessen wissen, was mit dem Klima vor sich geht, aber das wissen wir nicht“.

Dennoch erzeugte Trenberth ein Energiebilanzmodell, dass im Mittelpunkt sämtlicher Behauptungen bzgl. des Treibhauseffektes auf das Klima steht.

Die Studie des National Research Councils konzentrierte sich auf die Unzulänglichkeiten der instrumentellen Aufzeichnungen. Die Studie erschien kurz nachdem H. H. Lamb seine Autobiographie veröffentlichte (1997), in welcher er sich über die breiteren Begrenzungen für die Klimaforschung ausließ. Er schrieb, dass er die Climatic Research Unit ins Leben gerufen hatte, weil

…es eindeutig klar war, dass die erste und größte Notwendigkeit die Etablierung der Fakten der Aufzeichnungen bzgl. des natürlichen Klimas aus der Vergangenheit war, und zwar zu Zeiten, bevor irgendwelche Nebeneffekte durch menschliche Aktivitäten von Bedeutung geworden sein könnten“.

Folglich wussten die Personen, welche das IPCC geschaffen und kontrolliert haben, bereits im Jahre 1999 um die Unzulänglichkeit der Daten während der 120 Jahre menschlicher Aktivitäten. Das hat sie nicht aufgehalten, aber es bedeutet, dass sie genau wussten, dass sie Daten, die sie brauchten, selbst erzeugen mussten, und sie wussten, wie man das macht.

Das IPCC konnte die Story sowie die Daten, welche seine Behauptungen einer vom Menschen verursachten globalen Erwärmung (CAGW) nur am Leben halten, falls sie Kontrolle über alle Datenquellen hatten. All dies begann sich nach dem Jahr 2000 herauszuschälen.

1.Die von Ballonmessungen bestätigten Satellitendaten erreichten eine Länge, die sie nicht länger ignorieren konnten. Im Jahre 2007 schrieb das IPCC folgenden Kommentar in ihren 4. Zustandsbericht:

Neue Analysen von Ballon- und Satellitenmessungen der Temperatur in der unteren und mittleren Troposphäre zeigen Erwärmungsraten ähnlich denen der Temperaturmessungen an der Oberfläche und sind konsistent innerhalb ihrer jeweiligen Unsicherheiten, was eine im TAR [AR3] aufgetretene Diskrepanz weitgehend beilegte“.

2.Sehr kalte Winter und verstärkter Schneefall errangen öffentliche Aufmerksamkeit, wie viele Cartoons belegen:

[Im Original ist an dieser Stelle ein solcher Cartoon gezeigt, der aus urheberrechtlichen Gründen hier aber nicht reproduziert werden darf. Hier kann man sich diesen im Original anschauen, was ich dringend empfehle. Anm. d. Übers.]

3.Der Stillstand ging über die 17 Jahre hinaus, welche Ben Santer für erforderlich hielt, bevor er überhaupt über das Ganze neu nachdachte.

4.Die Lücke zwischen dem zunehmenden atmosphärischen CO2-Niveau und der tatsächlichen Temperatur wurde fortwährend immer größer.

Aber nichts davon konnte die Suche nach Stützung aufhalten. Thomas Karl erzeugte eine Datenreihe und schrieb zusammen mit Tom Peterson eine Studie, in der behauptet wurde, dass der Stillstand nicht auftritt, wenn man Daten und Verfahren mit ernsthaften Begrenzungen heranzieht. Nach der Bloßstellung des Missbrauchs lehnten es die Ko-Autoren ab, einer Vorladung des Kongresses zu folgen und die Daten und angewandten Verfahren öffentlich zu machen.

Karl und andere, welche in den AGW genannten Betrug verwickelt sind, wussten von Anfang an und besser als jeder andere um die bedeutenden Begrenzungen des instrumentellen Datensatzes. Wahrscheinlich wussten sie durch die Arbeiten von Lamb auch um die Begrenzungen der historischen Aufzeichnung. Trotzdem, oder vielmehr gerade deswegen, überwachten sie die Konstruktion von Computermodellen, schrieben Studien, erzeugten ,offizielle‘ Berichte und überzeugten die Welt, dass sie vor dem drohenden Untergang steht durch eine Runaway-globale Erwärmung. Ihre Arbeiten auf der Grundlage von etwas, von dem sie von Anfang an wussten, wie unzulänglich es war, erlangte universelle Akzeptanz. Natürlich wussten sie auch besser als alle anderen, wie man Daten auswählt und manipuliert, um Argumente zu finden, welche ihre falsche Hypothese stützen; zumindest bis Satellitendaten wissenschaftlichen Status erreichten. Aber selbst dann noch machten sie mit ihrem Betrug weiter. Sie beweisen, dass sie Gründungsmitglieder der postfaktischen Gesellschaft sind. Das jüngste Beispiel wurde ausgelöst durch die Panik wegen Trumps Rückzug aus dem Paris-Abkommen und analysiert durch Tony Heller.

Link: https://wattsupwiththat.com/2017/08/12/uncovered-decades-old-report-showing-climate-data-was-bad/

Übersetzt von Chris Frey EIKE




Die ökologische Korrektheit hat offenbar sehr kurze Beine

In dem betreffenden Artikel wird eine Karte der Nitratbelastung in Deutschland gezeigt, die diese Aussagen beweisen soll (aus Gründen des Copyrights muss hier auf den SZ-Link verwiesen werden). Das Thema Nitratbelastung des Grundwassers ist nicht neu und kocht immer wieder einmal hoch. Unter der Überschrift „Nitrat und die Folgen der Massentierhaltung“ stellte der WDR bereits am 18.November 2015 die existenzielle Frage, „Günstiges Fleisch oder günstiges Wasser?“, Zitat:

Nitrat belastet unser Wasser, Schuld daran ist, so die Experten, vor allem die Massentierhaltung. Viele Tiere produzieren viel Gülle und dadurch kommen viele Schadstoffe ins Wasser…“

Und damit ist eindeutig die Massentierhaltung als Schuldiger für eine vorgeblich steigende Nitratbelastung des Grundwassers in Deutschland identifiziert. Die EU-Vertretung in Deutschland meldete dann am 28. April 2016, Zitat mit Hervorhebungen:

Die Europäische Kommission verklagt Deutschland wegen der anhaltenden Verunreinigung der deutschen Gewässer durch Nitrat vor dem Gerichtshof der EU. Das hat sie heute (Donnerstag) bekanntgegeben. Trotz der weiter hohen Nitratbelastung hat Deutschland keine strengeren Gegenmaßnahmen ergriffen. Dazu ist das Land laut geltendem EU-Recht jedoch verpflichtet. Die von der Bundesrepublik zuletzt im Jahr 2012 übermittelten Zahlen sowie mehrere Berichte deutscher Behörden aus jüngster Zeit zeigen eine wachsende Nitratverunreinigung des Grundwassers und der Oberflächengewässer, einschließlich der Ostsee.“

Also, dieses Verfahren der EU-Kommission gegen Deutschland basiert offenbar auf denjenigen Daten, die Deutschland nach der EU-Nitratrichtlinie selber an die EU gemeldet hatte.

Wie kann es nun aber sein, dass in Deutschland die Verunreinigung von Grund- und Oberflächenwasser mit Nitraten plötzlich wieder zunehmen soll?

Das Problem von landwirtschaftlichen Nitrateinträgen in Grund- und Oberflächenwässer ist doch schon seit mehr als 3 Jahrzehnten bekannt. Nach einer Übergangsphase von etwa einem Jahrzehnt schien das Nitratproblem der Landwirtschaft dann ab Anfang 2000 auf dem Wege zu einer wasserwirtschaftlich befriedigenden Lösung zu sein, zumal die moderne Großlandwirtschaft mit Luftbildanalysen und GPS-gesteuerten Maschinen inzwischen die Düngerzufuhr sehr genau nach dem örtlichen Bedarf zu steuern vermag. Insbesondere der Nitrateintrag in Oberflächengewässer wurde damals durch die Einrichtung von speziellen Gewässerschutzzonen nachhaltig reduziert.

Es fragt sich also, warum sich die Nitratproblematik in Deutschland trotz frühzeitig eingeleiteter Gegenmaßnahmen nun seit geraumer Zeit wieder zunehmend verschärfen soll.

Das Deutsche Maiskomitee e. V. , stellt zu dieser Problematik einige sehr interessante Grafiken bereit (wegen Copyright hier ebenfalls nicht dargestellt). Dort wird sofort deutlich, dass sich Massentierhaltung und Maisanbau in Deutschland auf dieselben Regionen konzentrieren. Beim Statistischen Bundesamt findet man dann die nachfolgenden Daten über den Maisanbau auf landwirtschaftlichen Flächen:

Anbaufläche (1 000 ha) 2010 2012 2013 2014 2015

Silomais / Grünmais 1 828,9 2 038,0 2 003,2 2 092,6 2 100,4

Bundesweit hat sich also allein zwischen den Jahren 2010 und 2015 der Maisanbau um fast 15 Prozent ausgeweitet. Die Anbaufläche für Energiepflanzen hat sich in dieser Zeit aber lediglich um insgesamt etwa ca. 3 Prozent erhöht, sodass es hier zu einer massiven Verdrängung anderer Feldfrüchte durch den Mais gekommen sein muss. Nun könnte man sagen, dass die Ausweitung des Maisanbaus eben auf der Futterbeschaffung für die Massentierhaltung beruht. An dieser Stelle hilft uns wiederum das Deutsche Maiskomitee weiter, Zitat:

Ende 2016 sind in Deutschland 9.004 Anlagen in Betrieb. Durch die Zunahme der Biogasanlagen, (vor allem in reinen Ackerbauregionen) steigt der Flächenbedarf deutlich an. Während 2006 noch knapp 160.000 Hektar Mais für die Biogaserzeugung angebaut wurden, waren es im Jahr 2008 knapp 300.000 Hektar Mais und im Jahr 2016 ca. 1.000.000 Hektar, welche in Biogasanlagen verwertet wurden…“

Der Anbau von Mais für Biogasanlagen hat sich also in den 10 Jahren von 2006 auf 2016 mehr als versechsfacht. Biogasanlagen sind für die Umwelt ja nicht ganz unproblematisch, allein in Bayern sollen zum Stand 2015 Leckagen von Biogas-Anlagen in 650 Fällen zur Verschmutzung von Oberflächengewässern geführt haben. Wenn solche Vorfälle zu einem Fischsterben führen, sind sie natürlich schwer zu verheimlichen. Es sei die Frage gestattet, ob die Öffentlichkeit auch etwas davon erfahren würde, wenn das corpus delicti einfach so in der Landschaft versickert…

Der verstärkte Anbau von Mais birgt übrigens noch eine weitere Gefährdung des Grundwassers mit sich, Zitat mit Hervorhebungen:

Als Kurztagspflanze kommt Mais aber erst spät mit dem Wachstum zu Gange, verlangt aber schon zur Saat eine hohe Düngung, die dann zwei Monate wenig genutzt werden kann. Deshalb hat Mais ein Nitratproblem im Grundwasser

Die artspezifische Düngung von Mais führt also zwangsläufig zu einem Nitratproblem im Grundwasser. Und dieses Nitratproblem im Grundwasser hat sich offenbar in den vergangenen Jahren durch den Anbau von Energiemais für Biogasanlagen weiter verschärft. Aber warum benennt man dann der Öffentlichkeit gegenüber nicht einfach korrekt Ross und Reiter?

Damit stellt sich die Zwischenfrage: Wer ist hier der eigentliche Verursacher der steigenden Nitratbelastung des Grundwassers, die Massentierhaltung oder der EEG-Maisanbau für Biogasanlagen?

Durch eine vorzeitige Schuldzuweisung an die Massentierhaltung wird eine offene Diskussion über dieses Nitratproblem von vorn herein ausgeschlossen. Und an der Fraktierung der tatsächlichen Zusammenhänge sind offenbar auch steuerfinanzierte Bundesbehörden beteiligt.

Die Broschüre des Umweltbundesamtes „Grundwasser in Deutschland“ weist mit der Karte oben am Ende nach, dass sich die wenigen Meßstellen des deutschen EU-Nitratmessnetzes in denselben Regionen verdichten, in denen Massentierhaltung und Maisanbau betrieben werden.

Wobei die vereinzelten blauen Punkte des offiziellen Nitratmessnetzes eigentlich gar keine flächendeckenden Aussagen für ganz Deutschland zulassen. Denn im europäischen Vergleich hat dieses Messnetz eine vergleichbare Dichte wie das landwirtschaftlich nur sehr schwach geprägte Nordskandinavien.

Dabei stellt sich nebenbei die Frage, warum eigentlich in Deutschland ganz unterschiedliche Grundwassermessnetze betrieben werden. Bei einer komplexen Ursachenforschung dürfte der Abgleich unterschiedlicher Analyseergebnisse dadurch nicht unbedingt gefördert werden. Eigentlich wäre hier ein einheitliches und möglichst gleichabständig dichtes nationales Messnetz erforderlich. Andererseits eröffnen mehrere heterogene Messnetze natürlich viel mehr Möglichkeiten, um bei vorgegebenen Zielsetzungen die passenden Antworten zu finden.

Könnte es vielleicht sein, dass man genau das gemessen hat, was man auch messen wollte?

Bauer Willi meint dazu jedenfalls, Zitat:

„…ist ein Skandal. Dass Deutschland seine Messnetze bezüglich Nitrat im Grundwasser so selektiert, damit besonders hohe Messwerte herauskommen, ist es auch. Wie anders ist es zu erklären, dass Deutschland deutlich schlechter sein sollen als die Niederlande. Ein bloßer Blick auf die Anzahl der gemeldeten Messstellen in den Niederlanden und in Deutschland zeigt selbst dem Laien, dass hier etwas nicht stimmen kann. Denn es gibt viel mehr Messstellen, als es diese Karte erscheinen lässt.“

Hier die von Bauer Willi kritisierte EU-Karte über die Nitratbelastung 2008-2011:


Der Vergleich der Nitrat-Messnetzdichte zwischen Deutschland und dem landwirtschaftlich unterentwickelten Nordskandinavien wird hier voll bestätigt. Verglichen mit den direkten Nachbarstaaten macht das deutsche Nitrat-Messnetz einen armseligen Dritte-Welt Eindruck, selbst in Osteuropa ist die Messdichte deutlich höher.

Muss hier die bereits heftig skandalisierte Massentierhaltung etwa für ein selbstgemachtes EEG-Umweltproblem herhalten, um die verbrauchersubventionierte EEG-Staatsreligion einer planwirtschaftlichen Energiewende nicht zu beschädigen?

Auf der Suche nach dieser EU Nitratkarte (2008-2011) in besserer Qualität ist der Autor dann zufällig über den EU Nitratreport für den Zeitraum 2004 bis 2007 gestolpert:

Und siehe, niemand kann dauerhaft gegen die Gesetze von Murphy verstoßen, ohne schließlich erwischt zu werden: Im Zeitraum 2004-2007 verfügte das deutsche Nitratmessnetz noch über wesentlich mehr Nitratmeßstellen als im nachfolgenden Zeitraum 2008-2011, mehr sogar als damals beispielsweise Frankreich und Spanien ausgewiesen hatten. Und im Zeitraum 2004-2007 erscheint das Ergebnis für die Grundwasserqualität in Deutschland bei überwiegend grünen Farbpunkten flächendeckend noch sehr viel positiver; besser jedenfalls als für Frankreich und Spanien. Es gab für die Bundesrepublik Deutschland also gar keinen Grund für irgendwelche Veränderungen dieses Netzes. Während nun aber Frankreich und Spanien ihr Ergebnis im Folgezeitraum 2008-2011 offenbar durch zusätzliche unbelastete Meßstellen aufgehübscht hatten, wurde das deutsche Nitratmessnetz plötzlich drastisch reduziert, und zwar offenbar ausgerechnet auf nitratbelastete Meßstellen.

Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?

Es wäre jedenfalls hoch interessant zu erfahren, durch wessen Entscheidungen aus dem deutschen EU-Nitratmessnetz von 2004-2007 das offizielle EU-Nitratmessnetz für den Zeitraum 2008-2011 herausgeschrumpft worden ist und welche qualifizierte Begründung dafür ausschlaggebend war. Mehr Schutz für den deutschen Bürger und eine bessere Vergleichbarkeit innerhalb der EU können es ja wohl kaum gewesen sein.

Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?

Aus einem solchen Vorgehen ergäbe sich jedenfalls eine ökodynamische Win-Win-Situation:
Eine zielgerichtete Reduzierung von Daten und die Fraktierung von Zusammenhängen würden es ermöglichen, der Öffentlichkeit gegenüber einen wesentlichen gesetzgeberischen Schritt in Richtung auf eine ökologische Landwirtschaft hin zu begründen. Und weil man den EEG-Energiemais ja nicht als wahren Schuldigen für eine steigende Nitratbelastung des Grundwassers identifiziert hat, würde man diese Nitratkeule in Zukunft jederzeit weiter zu Lasten der industrialisierten Landwirtschaft einsetzen können – das Perpetuum Mobile der ökologischen Transformation wäre erfunden.

Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.

Eine abschließende Frage an alle ökologischen EEG&EU-Moralisten: Darf man das angeblich „Böse“ manipulativ verleumden, um das vorgeblich „Gute“ gezielt voranzubringen?

Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Haben Sie ein Haustier? Dann müssen wir ehrlich mal darüber reden!

SPIEGEL ONLINE lieferte dafür gerade ein Beispiel:
SPON 07.08.2017: US-Analyse Hunde und Katzen sind schlecht fürs Klima
Niedlich, ein Seelentröster – und schlecht für die Umwelt. Hunde und Katzen verursachen vor allem über ihren Fleischkonsum einen beträchtlichen jährlichen Treibhausgas-Ausstoß. Allein in den USA entspreche dieser der Klimawirkung von rund 64 Millionen Tonnen Kohlendioxid jährlich, ergab eine im Fachmagazin „PLOS ONE“ vorgestellte Hochrechnung. Der Wert entspricht in etwa der Klimabilanz aller Einwohner von Berlin und Hamburg….
In Berechnungen zum Umwelteinfluss des Nahrungsmittelkonsums im Land flössen Haustiere aber bisher nicht ein, erklärt Gregory Okin von der University of California in Los Angeles (UCLA) … „Aber ich denke, wir sollten uns klar sein über die Auswirkungen, die Haustiere haben, und ehrlich darüber reden.“

Nun sind 64 Milllionen Tonnen CO2 eine Klimagefahr zwischen 0,000021 … 000064 °C / pa. Man hat also je nach Forcingannahme ca. 3.100 … 9.500 Jahre Zeit, bis der Einfluss aller Haustiere der USA mit einem Thermometer überhaupt signifikant als Temperaturunterschied von 0,2 Grad (Messungenauigkeit einer modernen, sauber geeichten und aufgestellten Temperaturstation) gemessen werden kann. An Pedanten der CO2-Klimatheorie gerichtet: Dabei ist nicht eingerechnet, dass das anthropogene CO2 ca. alle 100 Jahre resorbiert ist und damit neu eingebracht werden kann, was die Zeit nochmals um mehrere Multiplikatoren verlängert.

Trotz solch ungeklärter Detaildiskussionen. Diese gerade noch verbleibende Zeit von vielen, vielen Tausend Jahren sollte man unbedingt nutzten, um sich harte Maßnahmen endlich auch für Haustierbesitzer zu überlegen, damit die Welt auch an diesem brisantem Klimazipfel noch gerettet werden kann. Und SPON muss man wirklich danken, gerade noch rechtzeitig darauf hingewiesen zu haben.

Denn es führt ja nun zu dem Entscheidungszwang, welche Rettungsmaßnahme die bessere ist:
Alle Haustiere in den USA aus Klimaschutzgründen verbieten – was mit Trump dort nicht mehr gelingt, oder alternativ die Bewohner von Hamburg und Berlin abschaffen, was ganz ohne Blutvergießen gelingen könnte, indem man zum Beispiel einfach das Kopulieren dort für den Zeitraum einer Generation verbietet (natürlich nur für Personen, welche schon länger im Land leben, sonst wäre es ja diskriminierend).

Vorab könnte man zumindest für die Katzen schon mal das Dosenfutter verbieten und nur noch die Ernährung durch nachhaltig in der freien Natur aufgewachsene Mäuse erlauben (durch Zufüttern nicht nachhaltig aufgewachsene Gartenvögel kommen nicht in Frage). Mancher Katzenbesitzerin mag davor grausen, doch früher wurde genau das gemacht (und trotzdem ist die Temperatur angestiegen – was aber ein anderes Thema wäre).
Für Hunde fällt dem Autor aktuell nichts wirklich Nachhaltiges ein. Seit dem Mailverkehr kommt der Briefträger zu selten und der vom UPS noch zu selten, nachhaltig ernährte Katzen erwischt ein träger Wohlstandshund kaum. Allerdings können Hunde bedenkenlos Regenwürmer, Schnecken, Käfer, Fliegen und Ähnliches verspeisen. Für Gartenbesitzer also problemlos und für Stadtwohnungen wird irgendein Startup dazu schon Lösungen finden. Schnittlauch lässt sich ja auch auf der Fensterbank ziehen und Frauen leidenschaftlicher Angler können Bände voller Schauergeschichten darüber erzählen, was für madiges Gekreuch im Kühlschrank aufgezogen werden kann.
Langfristig wäre ein „Umbau“ zum veganen Tier durch Genmanipulation denkbar. Zur Rettung des Klimas werden die Gutmenschen sicher alle Bedenken dagegen fallenlassen und für Fördermittel finden sich auch genügend Forscher, welche es schaffen (könnten).
Jedenfalls: Die Hoffnung auf Nachhaltigkeit braucht man auch dafür nicht aufzugeben.

Und man stellt fest, dass unsere Medien wissen, was dem Globus weht tut und zu wahren Lösungsbringern mutieren. Wenn es irgendetwas zu verbieten gibt, nehmen sie es sofort auf und zeigen die richtigen Wege aus dem Dilemma. Das ist beim Dieselproblem so und nun auch mit dem der Haustiere.

Ein Problem ist aber noch ungelöst. Wenn man schon auf Kinder verzichtet hat:
EIKE 18.07.2017: Die wirksamste Bekämpfung des Klimawandels ist der Verzicht auf Kinder,
darf man dann wieder ein Haustier haben? Oder könnte man einen Verzicht auf Haustiere per Zertifikat mit einem Kinderwunsch gegenrechnen? Bestimm kommt bald aus den USA oder von sonst woher bald eine Studie, welches auch dieses Problem fundiert klärt. SPON wird bestimmt darüber berichten.

Anmerkung: Der Hinweis zum SPON-Artikel kam von Achgut, 10.08.2017: Hunde und Katzen killen das Klima