Diesel-Verteufelung: Krieg gegen das eigene Volk Diesel: Die Lückenmedien im Glashaus (11)

Bild 1 (oben). Der Blick „unter die Haube“ eines älteren V8-Dieselmotors offenbart die komplexe Technologie dieser energieeffizienten Kraftpakete

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil wird anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten nachgewiesen, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Anschließend wurde im achten Teil nachgewiesen, dass die Grenzwertüberschreitungen der Luft punktuell extrem beschränkt sind und der Anteil der betroffenen Bewohner selbst an den Brennpunkten im Zehntel-Promille-Bereich liegt.

Bild 2. Einige der typischen Horrormeldungen in den Medien zum Thema Diesel-Abgase

 

Der neunte Teil zeigte, wie gering die Beaufschlagung der Anwohner einer Straße mit über dem Grenzwert liegenden NO2-Konzentrationen in Wirklichkeit ist. Im zehnten Teil wurde gezeigt, dass die NO2-Beaufschlagung im eigenen Wohnbereich teilweise sehr viel höher liegt als selbst an den am stärksten befrachteten Brennpunkten des Autoverkehrs. Im vorliegenden elften Teil werfen wir einen kritischen Blick auf die Glaubwürdigkeit einiger Epidemiologinnen, die sich in Deutschland als Anti-Diesel-Aktivistinnen hervortun.

 

Eine unbequeme Wahrheit….

Im Juni 2017 erschien der Bericht des ein Jahr zuvor eingesetzten Diesel-Untersuchungsausschusses, in dessen Verlauf Abgeordnete der im Bundestag vertretenen Parteien Stellungnahmen und Eingaben der vom Thema betroffenen gesellschaftlichen Kräfte sowie einer Reihe führender Wissenschaftler angehört und bewertet hatten. Zu diesen Wissenschaftlern gehörten auch führende Mediziner und Epidemiologen. In seinem abschließenden Bericht hält der Ausschuss auf den Seiten 491 ff u.a. folgende entscheidenden Aussagen fest:

– In Deutschland bestehen keine toxikologisch bedenklichen NO2-Werte in öffentlich zugänglichen Bereichen.

– Es gibt keine wissenschaftlich erwiesenen Zahlen dazu, wie viele Menschen aufgrund grenzwertüberschreitender NO2-Expositionen erkrankt oder gar gestorben sind, Bild 3.

Bild 3. Nach intensiver Recherche kam der Diesel-Untersuchungsausschuss des deutschen Bundestages zu dem Schluss, dass die Meldungen über Tote durch Dieselabgase unbegründet sind [BUTA]

 

…führte zu wütenden Protesten

Wie bereits in früheren Teilen dieser Untersuchung ausgeführt, gibt es zu diesem Thema gegensätzliche Haltungen von Medizinern bzw. Toxikologen einerseits und Epidemiologen andererseits. Erstere stützen sich auf durch Tests klar nachgewiesene Ursache-Wirkungsbeziehungen, während Epidemiologen statistische Untersuchungen an größeren Bevölkerungsgruppen durchführen, um auf diese Weise Hinweise auf Gesundheitsgefährdungen zu erhalten. Bei dieser Methodik sollte man jedoch die Voraussetzungen der Untersuchung sehr penibel auf mögliche Stör- und Quereinflüsse hin abprüfen und die Grundlagen der statistischen Auswertung beherrschen.

Bild 4. Vergleich gesundheitlicher Risikofaktoren. Man beachte, dass unter „Umwelt“ eine Vielzahl unterschiedlicher Faktoren zusammengefasst ist, von denen NO2 lediglich einen (eher unbedeutenden) Anteil ausmacht (Ministerium f. Umwelt, Gesundheit + Verbraucherschutz)

 

Unsaubere Arbeitsweise führt sonst zu Scheinkorrelationen [SCHKO] und damit zu falschen Schlüssen. Der wichtigste Fehler liegt in der Regel darin, dass die Abgrenzung der Einflüsse bei der Auswahl der untersuchten Gruppen („Kohorten“) nicht sauber durchgeführt wird.

Bereits in früheren Folgen dieser Artikelserie wurde darauf hingewiesen, dass ein erheblicher Teil der von Epidemiologen präsentierten Studien über den Zusammenhang von NO2-Emissionen und Gesundheitsbeeinträchtigungen wegen methodischer Fehler als nicht vertrauenswürdig eingestuft werden sollte [RUHR5, RUHR6RUHR5]. Teilweise wurde sogar offen gefälscht, um Fördergelder zu erhalten [DUKE]. Dies gilt auch für die Studien, die in zusammenfassenden Dokumentationen der US-amerikanischen Umweltschutzbehörde EPA [EPA] sowie der Weltgesundheitsorganisation WHO [WHO2] aufgeführt werden.

 

Profiteure des Abgas-Alarmismus

In den letzten Jahren hat sich in den westlichen Nationen sowie im Dunstkreis der WHO ein Filz aus universitären und „ökologischen“ – also im Prinzip kommerziellen – Institutionen herausgebildet, die davon abhängen, dass staatliche Stellen sie mit immer neuen Forschungsaufträgen u.a. zu Abgasthemen alimentieren. Das hat zur Ausbildung von Abhängigkeiten geführt und damit zu einer „Marktsicherung“-Haltung geführt. Den beteiligten Instituten ist schließlich klar, dass die Nachfrage nach ihren Forschungsdienstleistungen zurückgehen würde, falls in der Öffentlichkeit der Eindruck entstehen würde, dass die Gefahr von Auto- und insbesondere Dieselabgasen nicht gar so groß ist wie vielfach behauptet.

Deshalb nimmt es nicht wunder, dass manche Exponenten aus diesem Umfeld sich auch in Deutschland als „Anti-Diesel-Aktivisten“ hervortun. Schließlich waren das von Trittin mit grünlinken Parteigängern gespickte Umweltministerium samt des ihm unterstellten Umweltbundesamtes wesentliche Auftraggeber. Drei der profiliertesten dieser Aktivistinnen nahmen das Ergebnis des Diesel-Untersuchungsausschusses zum Anlass, hierzu eine geharnischten Protestnote [EPIDE] veröffentlichen zu lassen.

 

Unter dem Deckmantel „der Wissenschaft“…

Entlarvend ist bereits der einleitende Satz nach der Zwischenüberschrift „Widerspruch aus der Wissenschaft“: „Nicht nur bei den Linken und Grünen, die der Regierung Versagen vorwerfen, stößt der Bericht auf Kritik. Auch Experten aus den Bereichen Luftverschmutzung und Gesundheit widersprechen den Schlussfolgerungen des Berliner Diesel-Untersuchungsausschusses“. Damit haben sich sowohl das sogenannte Hauptstadtnetzwerk als auch besagte Akademikerinnen bereits bezüglich ihrer ideologischen Positionen eindeutig positioniert. Dass man sich dabei nicht scheut, auch verbal grobes Geschütz aufzufahren, dokumentiert sich in dem einleitenden Absatz: „Der Diesel-Untersuchungsausschuss will keine tödlichen Gefahren von Diesel-Abgaben gefunden haben. Wissenschaftler halten das für absurd“. Eine solche Aussage in diesem Zusammenhang lässt einiges an Chuzpe erkennen, haben doch vor dem Untersuchungsausschuss mehrere hochrangige Experten auf dem Gebiet ausgesagt. Auch gibt es in Deutschland mit der MAK-Kommission und dem Ausschuss für Innenraumrichtwerte gleich zwei hochkarätig besetzte Expertengremien, die zu anderen Schlussfolgerungen kommen. Auch in den USA hat das EPA erst im letzten Jahr bekräftigt, dass es NO2-Konzentrationen unterhalb von 100 µg/m3 für gesundheitlich völlig unbedenklich hält [NAAQS].

Bild 5. Zitat aus dem Bericht des Bundestags-Untersuchungsausschusses zur Dieselaffäre. Prof. Dr. med. Helmut Greim war Leiter des Instituts für Toxikologie und Umwelthygiene der TU München und langjähriger Vorsitzender der MAK-Kommission (Quelle: [BUTA])

 

…wird Wissenschaft missbraucht

Der Bericht des Untersuchungsausschusses, so die Stellungnahme der drei Akademikerinnen, habe „eine ganze Reihe wichtiger, weltweiter Studien, ignoriert“. Diese Aussage ist gleichbedeutend mit einem Frontalangriff gegen eine Vielzahl anderer Wissenschaftler auf dem Gebiet, darunter renommierte Vertreter der Toxikologie oder der Lungenheilkunde, denen man vorwirft, sie seien bezüglich des Standes der Wissenschaft und Forschung nicht ausreichend informiert.

Bild 6. Auszug aus einer privaten Mail eines Pathologieprofessors an Prof. Dr. Thomas Koch [KOCH]

 

Und dann lassen die Damen die Katze aus dem Sack, indem sie behaupten: „Epidemiologische Befunde belegen negative gesundheitliche Wirkungen von Stickstoffdioxid bereits bei Konzentrationen von 20 µg/m3 im Jahresmittel oder darunter. Stickoxide haben auch als Vorläufer von Feinstaub und Ozon gesundheitliche Relevanz.“ Damit verlässt das Trio jeglichen „Konsens der Wissenschaft“ ihres Fachgebiets, denn diese Hypothese geht über alles, was WHO und EPA, die EU und selbst das UBA für unbedenklich halten, weit hinaus. Die drei Damen repräsentieren keinesfalls mehr die Positionen „der Wissenschaft“, sondern vertreten eine Extremposition, die man auch als sektiererisch charakterisieren könnte.

Bild 7. Prof. Dr. Andrea Hartwig, Geschäftsführende Direktorin des Instituts für Angewandte Biowissenschaften (IAB) und Leitung der Abteilung Lebensmittelchemie und Toxikologie beim Karlsruhe Institut für Technik, Mitglied und seit 2007 Vorsitzende der MAK-Kommission, Mitglied in zahlreichen nationalen wie auch internationalen Beratergremien ([HARTW])

Nun ist es das gute Recht jedes Wissenschaftlers, eine von der Mehrheit abweichende These zu vertreten. Berufskollegen jedoch so massiv Ignoranz, Absurdität und unzureichende Kenntnis des Stands der Wissenschaft vorzuwerfen, entspricht nicht so ganz der feinen englischen Art. Die Damen dürfen sich daher nicht darüber beschweren, wenn ihre Hypothese im Folgenden ebenfalls einer kritischen Prüfung unterzogen wird.

 

Wie beeinflusst die NO2-Befrachtung der Luft im Freien die Lebensdauer?

Die Europäische Umweltagentur EEA behauptet, dass Stickoxide in deutschen Großstädten angeblich jährlich über 10.000 Tote verursachen. Prof. Hoffmann hält diese Studie laut Aussage in einem Interview mit der Landesrundfunkanstalt Berlin-Brandenburg „unterm Strich für seriös“ [RBBHO]. Sie basiere „auf solider Wissenschaft“. Zur nächsten Frage über Stickoxidmesswerte an verkehrsreichen Straßen sagte sie: „Im Mittel leben wir alle durch die Belastung durch Feinstaub und Stickoxide zehn Monate kürzer….Wer mit…einer gesunden Lebensweise im Grünen lebt, hat aber im statistischen Durchschnitt ein längeres Leben“. Der „kleine Trick“ bei dieser Aussage bestand übrigens darin, dass sie hier Feinstaub – den moderne Dieselmotoren dank ihres Rußpartikelfilter gar nicht erst ausstoßen – und NO2 zusammenwürfelte. Allein schon diese Argumentationsweise lässt Rückschlüsse auf die Integrität und wissenschaftliche Seriosität von Prof. Hoffmann zu. Deshalb wollen wir uns diese Aussage einmal am Beispiel Deutschlands ansehen.

Bild 8. Zitat aus dem Bericht des Bundestags-Untersuchungsausschusses zur Dieselaffäre. Prof. Dr. Peters ist Direktorin des Instituts Epidemiologie II am Helmholtz Zentrum München (Quelle: [BUTA])

 

Für die Überprüfung der Hypothese von Prof. Hoffmann ist es am naheliegendsten, die Lebenserwartung von Bevölkerungsgruppen zu vergleichen, die in Gegenden mit unterschiedliche hohen Abgasimmissionen (und somit auch NO2-Gehalten) leben. Als Datenbasis nehmen wir die vom UBA erstellte Deutschlandkarte mit den NO2-Jahremittelwerten für das Jahr 2010 (Bild 6), da für diesen Zeitpunkt auch regionale Daten zur Lebenserwartung der Bevölkerung verfügbar sind.

Bild 9. Vom Umweltbundesamt erstellte Karte mit den 2010 in Deutschland gemessenen Jahresmittelwerten der NO2-Konzentrationen (Grafik: UBA)

 

In Deutschland wurden 2010 NO2-Jahresmittelwerte zwischen etwa 3-10 µg/m3 in ländlichen Regionen und 90-100 µg/m3 in einigen Großstadt-Hotspots gemessen. Die Farbverteilung auf der Karte weist Mecklenburg-Vorpommern als die am wenigsten durch Abgase belastete deutsche Region aus. Hier sollte man bei Gültigkeit der Hypothese auch die höchsten Lebenserwartungen finden, während die Städter in den industriellen Ballungszentren des Westens – Nordrhein-Westfalen, Rhein-Main-Region sowie der Industriegürtel von Stuttgart bis München – erheblich schlechtere Luft atmen müssen. Die ausgewiesenen NO2-Gehalte sind gleichzeitig auch ein Indikator für alle anderen Abgasbestandteile wie z.B. Feinstaub. Zwischen Regionen mit hohen Abgaswerten und Mecklenburg-Vorpommern müsste sich demnach ein deutliches Gefälle der Lebenserwartung nachweisen lassen. In die Auswertung wurden alle Regionen von Mecklenburg-Vorpommern – Städte ebenso wie ländliche Regionen – sowie das „deckigste Dutzend“ der am stärksten mit NO2 befrachteten westdeutschen Großstädte einbezogen, Bild 10.

Bild 10. Einfluss der NO2-Jahresmittelwerte der Luft im Freien auf die Lebenserwartung bei Geburt (e0) für Mecklenburg-Vorpommern sowie das „dreckigste Dutzend“ der deutschen Großstädte (Daten: [UBA, LEBE])

 

Die Auswertung zeigt jedoch das völlige Gegenteil: Statt mit zunehmender Abgasbelastung abzunehmen, steigt die Lebenserwartung sogar an. Sowohl Männer als auch Frauen leben offensichtlich dort deutlich länger, wo die Luft am stärksten mit Abgasen und NO2 befrachtet ist. Die Steigung der linearen Funktion, die angibt, um wieviele Lebensjahre man in belasteter Luft pro zusätzlichem µg/m3 NO2 länger leben dürfte, liegt für Männer bei +0,059 Lebensjahren pro zusätzlichem µg NO2/m3. Bei Frauen ist er etwas niedriger und erreicht lediglich +0,032 Lebensjahre pro zusätzlichem µg NO2/m3.

Anders ausgedrückt bedeutet dies, dass ein Mann in München oder Stuttgart ein um rund fünf Jahre längeres Leben erwarten darf als jemand, der in ländlichen Regionen in MP wie Göhlen, Löcknitz oder Gülzow wohnt. Bei Frauen ist der Unterschied geringer, doch erfreuen auch sie sich einer um fast drei Lebensjahre längeren Lebenserwartung.

Angesichts dieses Ergebnisses kann man natürlich argumentieren, dieser offensichtliche Widerspruch habe andere Ursachen, beispielsweise negative Einflüsse aus den Mangeljahren in der DDR-Zeit bei den Einwohnern von Mecklenburg-Vorpommern. Um dies zu überprüfen, wurde die gleiche statistische Auswertung ausschließlich für dieses Bundesland durchgeführt, Bild 11.

Bild 11. Einfluss der NO2-Jahresmittelwerte der Luft im Freien auf die Lebenserwartung bei Geburt (e0) für unterschiedliche Wohnorte innerhalb von Mecklenburg-Vorpommern (Daten: (Daten: [UBA, LEBE])

 

Innerhalb von Mecklenburg-Vorpommern mit seinen deutlich kleineren Städten in einem ansonsten weitgehend ländlich geprägten Umfeld sind die absoluten Unterschiede mit einer Spanne von 8 bis 44 µg/m3 NO2 natürlich erheblich geringer. Dennoch bleibt nicht nur der grundlegende Trend erhalten, auch die Faktoren passen sowohl bei Männern (+0,0496 Lebensjahre pro zusätzlichem µg NO2/m3) als auch bei Frauen (+0,059 Lebensjahre pro zusätzlichem µg NO2/m3) erstaunlich gut zu denen aus der Analyse für die gesamte BRD. Auch in Mecklenburg-Vorpommern lebt man in „dreckiger“, abgasbeladener Stadtluft erkennbar länger als beim ständigen Genuss reiner Landluft.

 

Die Hypothese zerschellt an der Realität

Diese auf die Schnelle durchgeführte Untersuchung ist zugegebenermaßen recht grob, weshalb in den Grafiken auch ausdrücklich von einem scheinbaren Einfluss die Rede ist. Kein vernünftiger Mensch würde behaupten, dass das Einatmen von Abgasen der Gesundheit zuträglich ist. Es schadet aber ganz offensichtlich bei weitem nicht in dem Umfang, wie es die meisten Medien unterstellen. Unrühmliches aber leider nicht einziges Beispiel ist der Starreporter Jürgen Döschner mit seiner Behauptung: „Deutsche Automafia vergast jedes Jahr 10.000 Unschuldige“ [DOESCH].

Wie auch immer man die Ergebnisse der Analyse interpretieren mag, es bleibt als Tatsache, dass die Hypothese der EEA sowie Prof. Hoffmann schon bei diesem grundlegenden Faktencheck nicht gut davonkommt. Das Vorzeichen stimmt nun einmal nicht, und das ist ein gravierender Mangel, denn es bedeutet zumeist, dass die Hypothese selbst durch aufwendiges Modellieren, Herumrechnen und Simulieren nur zu retten wäre, wenn sich die Effekte sehr scharf trennen ließen. Die entsprechenden Nachweise sind in der Praxis kaum zu erbringen, Bild 12.

Bild 12. Dr. med. Tillmann Jahn, Oberarzt der Klinik für Thoraxchirurgie der St. Vincentius-Kliniken Karlsruhe (Quelle: [JAHN])

 

Das ist auch nicht verwunderlich, denn andere Faktoren – insbesondere die sozioökonomische Situation – haben offensichtlich eine viel stärkere Auswirkung als Autoabgase. Diese dominierenden Einflüsse auf die Lebensdauer sind seit langem bekannt und bestens dokumentiert: Rauchen, Fettleibigkeit, Bluthochdruck, Diabetes und Bewegungsmangel, siehe auch Bild 4. Diese sind wiederum eng mit der sozioökonomischen Situation verknüpft. Das präzise Herausfiltern einer – wenn überhaupt – dann ziemlich schwachen Einflussgröße wie Autoabgase setzt eine äußerst sorgfältige Selektion der untersuchten Personengruppen voraus. Im Prinzip müssten alle relevanten Faktoren wie das individuelle Verhalten sowie die tatsächliche Jahresbelastung mit allen relevanten Lungenschadstoffen (Innen- und Außenluft) am Wohnort wie auch am Arbeitsplatz ganzheitlich, langzeitig und mit engem Zeitraster untersucht werden. Eine exakte getrennte Erfassung von NO2 und anderen Faktoren wie Feinstaub wären unabdingbar. Dies ist bei den weitaus meisten epidemiologischen Studien nicht der Fall. Wird die Statistik jedoch mit Kuddelmuddel statt mit sauber getrennten Eingangsdaten betrieben, so kommt es zu „mathematischen Zombiezahlen“ wie in den Berechnungen der Europäischen Umweltagentur.

Bild 13. Prof. Dr. med. Helmut Greim war Leiter des Instituts für Toxikologie und Umwelthygiene der TU München und langjähriger Vorsitzender der MAK-Kommission (Quelle: [GREIM])

 

Dieser grundlegende Mangel kann auch durch sogenannte Metaanalysen – die Zusammenfassung und statistische Untersuchung der Ergebnisse zahlreicher unterschiedlicher Studien – nicht behoben werden. Die allzu häufig unsaubere Trennung der Einflussfaktoren ist ein entscheidender und nicht mehr zu korrigierender Mangel. Unter US-Wissenschaftlern gibt es hierzu eine kurze und sehr treffende Charakterisierung: Shit in, shit out. Auf eine Übersetzung sei hier verzichtet.

 

Eine wissenschaftliche Selbstdemontage…

Die Position der drei Epidemiologinnen um Prof. Hoffmann kann somit als auch unter Medizinern kaum glaubwürdig eingestuft werden. Umso verwunderlicher ist es, dass sie dennoch mit derartiger Verve an die Öffentlichkeit drängen und zugleich Fachkollegen derart heftig und teils unter der Gürtellinie („absurd“) attackieren. Zudem nutzen sie die gleichen PR-Netzwerke ökosozialistisch geprägter Journalisten wie die Autofeinde von der Deutschen Umwelthilfe, um sich wo immer möglich als „Stimme der Wissenschaft“ zu gerieren. Statt wie unter Wissenschaftlern üblich ihre Positionen im Rahmen von Veröffentlichungen und Tagungsvorträgen zu vertreten, bevorzugt Fr. Prof. Hoffmann augenscheinlich das Megaphon der Medien. Leider zeigt die Erfahrung, dass man damit in unserer mediendominierten Öffentlichkeit leichter Karriere machen kann als mit seriöser wissenschaftlicher Betätigung: „Wer lauter schreit, bekommt leider Recht“. Insbesondere der RBB fällt dadurch auf, dass er Prof. Hoffmann ungeachtet ihrer eindeutig nicht repräsentativen Positionen in Sendungen bzw. Interviews als einzige „Vertreterin der Wissenschaft“ zu Wort kommen lässt. Im Prinzip wäre dies ein Fall für den Rundfunkrat.

Das traurige an dieser unangemessenen und den Gepflogenheiten der Wissenschaft widersprechenden Verhaltensweise ist, dass dies auf Dauer nachteilige Auswirkungen auf das gesamte Fachgebiet haben dürfte. Dabei besteht an der Notwendigkeit epidemiologischer Forschung an sich keinerlei Zweifel, sofern sie wissenschaftlichen Kriterien genügt. Nimmt jedoch die wissenschaftliche Reputation des Fachgebiets durch die beschriebenen Eskapaden Schaden, so kann sich dies nachteilig auch auf die Bereitschaft zur Forschungsförderung auswirken.

 

Fakten und „Faktenfinder“

Die hier dargelegten Probleme wurden bisher von den Medien ignoriert. Stattdessen hat man sich dort einen regelrechten Wettbewerb in der Frage geliefert, wer am tollsten auf den Dieselmotor und die Individualmobilität eindreschen konnte, wie sich ja auch kürzlich bei der perfiden Diffamierungskampagne gegen Wissenschaftler der medizinischen Fakultät an der RWTH Aachen gezeigt hat.

Bisher hat man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Belastung des Bürgers beschäftigt. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden ignoriert. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die jetzt wohl unausweichliche „GroKo“ ist für Deutschland ein sehr schlechtes Omen.

Fred F. Mueller

 

Demnächst folgt Teil 12

 

Quellen

[BUTA] Drucksache 18/12900 – 492 – Deutscher Bundestag – 18. Wahlperiode

[DOESCH] https://www.welt.de/vermischtes/article167196737/Am-Ende-loescht-der-ARD-Reporter-den-geschmacklosen-Tweet.html

[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/

[EPA] https://www.epa.gov/isa/integrated-science-assessment-isa-nitrogen-dioxide-health-criteria

[EPIDE] https://www.gesundheitsstadt-berlin.de/wissenschaftler-widersprechen-berliner-diesel-untersuchungsausschuss-11501/

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GREIM] https://m.focus.de/finanzen/karriere/berufsleben/dieselpanik-wegen-grenzwertluege-politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm_id_7378545.html

[HARTW] http://www.dfg.de/download/pdf/dfg_magazin/forschungspolitik/gesundheitsschutz/cv_hartwig_de.pdf

[JAHN] Jahn, T.: Vortrag Wunderwerk Lunge – eine Analyse der Gefährdungspotentiale. Tagung Motorische Stickoxidbildung NOx, Ettlingen. 2018

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf

[LEBE] http://www.lebenserwartung.info/index-Dateien/regdiff.htm

[NAAQS] https://www.epa.gov/no2-pollution/primary-national-ambient-air-quality-standards-naaqs-nitrogen-dioxide

[RBBHO] https://www.rbb24.de/politik/thema/2017/abgasalarm/beitraege/interview-umweltmedizinerin-barbara-hoffmann.html

[RUHR5] http://ruhrkultour.de/diesel-verteufelung-krieg-gegen-das-eigene-volk/

[RUHR6] http://ruhrkultour.de/die-lueckenmedien-im-glashaus-6/

[SCHKO] https://scheinkorrelation.jimdo.com/

[UBA] https://www.umweltbundesamt.de

[WHO2] http://www.euro.who.int/en/health-topics/environment-and-health/air-quality/publications/2013/review-of-evidence-on-health-aspects-of-air-pollution-revihaap-project-final-technical-report

 

 




So sieht Deutschlands Zukunft aus

Deutschland nach Erfüllung der Träume der Windkraft-Lobby, Bild Vernunftkraft.de

Vernunftkraft.de hat die Wunschträume der Windkraftlobby in einer Montage bei Facebook (hier) bildlich dargestellt.




Das Gegenteil von gut ist gut gemeint

Am 19.01.2018 erschien der Artikel „Vom Klimaschutz zur Klimasteuerung“ auf Novo Argumente. Dieser Artikel greift zunächst – sehr sachlich – alarmistische Konstrukte des anthropogenen Klimawandels auf, stellt dann ganz entspannt deren vorgeblich katastrophale Auswirkungen und Ziele in Frage, um daraus schließlich Argumente für ein globales Geoengineering zur Klimasteuerung abzuleiten. Nachfolgend sollen zunächst einige der klimaalarmistischen Darstellungen aus diesem Artikel näher beleuchtet werden:

Von den vergangenen 500 Millionen Jahre Erdgeschichte hat man zwar ziemlich klare Vorstellungen, aber keine eindeutigen und lückenlos nachgewiesenen Erkenntnisse, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Tatsächlich ist das Klima der Erde höchst variabel. Es gab Eiszeiten und Wärmeperioden, in denen Palmen an den Polarkreisen wuchsen, möglicherweise auch „Schneeball Erde“ genannte Phasen, in denen nahezu die gesamte Erdoberfläche mit Gletschern bedeckt war. Am besten untersucht sind die letzten 500 Millionen Jahre. Für diesen Zeitraum, der ungefähr dem Phanerozoikum entspricht (also dem erdgeschichtlichen Zeitalter, in dem komplexe Lebensformen entstanden sind), können Wissenschaftler recht genaue Rekonstruktionen des Klimas erstellen. Sie nutzen dazu sogenannte „Proxys“ wie Baumringe, Ozeansedimente oder Eisbohrkerne…“

Zunächst einmal wird dem Leser die Klimaentwicklung der vergangenen 500 Millionen Jahre Erdgeschichte als recht genau bekannt vermittelt. Aber bereits Klimarekonstruktionen von weniger als 1 Million Jahren sind in der Realität nicht unproblematisch, auch wenn dafür tatsächlich Temperaturproxys in Form von Baumringen, Ozeansedimenten oder Eisbohrkernen vorliegen. Die Bedeutung von „recht genau“ wird nämlich immer unschärfer, je weiter wir uns in den geologischen Zeitaltern zurückbewegen. Und am Ende müssen Aussagen zum Klima auch noch zwischen echten Klimaveränderungen und geographischen Lageänderungen der betreffenden Kontinente aufgrund der Plattentektonik unterscheiden.

Ein Artikel aus National Geographic über eine Reduzierung des vorgeblichen CO2-Klimaantriebs wird dann als „gängige Theorie“ für die Entstehung der Eiszeiten benannt, Zitat aus dem Novo-Artikel:

Der Abwärtstrend, der in das aktuelle Eiszeitalter führte, begann vor circa 50 Millionen Jahren. Die Gründe dafür sind umstritten, eine gängige Theorie geht davon aus, dass die Ausbreitung und spätere Sedimentierung des Süßwasserfarns Azolla der Atmosphäre beträchtliche Mengen des Treibhausgases CO2 entzog. In den letzten zwölf Millionen Jahren ist der Temperaturabfall stärker geworden, gipfelnd in einer schnellen Folge immer intensiverer Glaziale, die die letzten drei Millionen Jahre prägten…“

Genau diese Theorie ist nicht „gängig“, sondern voll alarmistisch. Die eigentlich gängige Theorie erklärt über die genau gleiche Argumentation nämlich die Sauerstoffgenese auf unserer Erde, und zwar mit der Entstehung der globalen Vorkommen an Kohle, Erdöl und Gas aus unterschiedlichen organischen Bestandteilen. Und diese Entwicklung begann bereits mit dem Karbon, also vor etwa 350 Millionen Jahren.

Eine einzelne alarmistische Veröffentlichung über die Abschwächung eines vorgeblichen CO2-Klimaantriebs durch die Auswirkungen der Plattentektonik und wird dann als „aktueller Forschungsstand“ bezeichnet, Zitat aus dem Novo-Artikel:

Dass das Klima so kalt und volatil geworden ist, liegt laut aktuellem Forschungsstand an der Plattentektonik. Vor etwa 40 bis 50 Millionen Jahren rammte die indische Platte in die eurasische Platte. Es entstanden das Hochland von Tibet und die Gebirge Himalaja, Pamir und Karakorum, zusammen auch „Dach der Welt“ oder „dritter Pol“ genannt. Erdgeschichtlich betrachtet sind Berge, die bis an den Rand der Stratosphäre reichen, eine Anomalie. Die Auffaltung der Felsmassen hat eine außergewöhnliche klimatische Epoche eingeleitet, denn sie hat die Verwitterung silikatreicher Gesteine wie Granit erheblich verstärkt. Bei diesem Prozess wird Calcium freigesetzt. Das Calcium reagiert zu Calciumcarbonat (dem Hauptbestandteil von Kalkstein) und entzieht dabei der Atmosphäre CO2…“

Die Verknüpfung plattentektonischer Ereignisse mit einem vermeintlichen CO2-Klimaantrieb stellt einen konstruierten Mechanismus dar und ist ein Ausdruck des herrschenden Zeitgeistes. Die wissenschaftlich nachgewiesene konventionelle Position von Köppen und Wegener, dem „Vater“ der modernen Plattentektonik, für den natürlichen Paläo-Klimaantrieb durch die Schwankungen der Erdbahn um die Sonne blieb dagegen unerwähnt. In dem bahnbrechenden Werk von Wladimir Köppen und Alfred Wegener, „Die Klimate der geologischen Vorzeit“ (1924) mit den Berechnungen von Milutin Milanković, wird die sommerliche Sonneneinstrahlung in mittleren und höheren Breiten als der natürliche Paläo-Klimamotor unserer Erde identifiziert. Erst im Jahre 1976, also ein halbes Jahrhundert später, konnte dieser Zusammenhang schließlich von Hays, Imbrie und Shackleton nachgewiesen werden. Diese gesicherte geowissenschaftliche Erkenntnis findet allerdings keinen Eingang in den besagten Novo-Artikel, der sich argumentativ an klimaalarmistischen Einzelveröffentlichungen entlanghangelt.

Die Milanković-Zyklen der Erdumlaufbahn werden schließlich argumentativ bemüht, um den Beginn eines menschengemachten CO2-Klimawandels noch weiter bis zum Ende der letzten Eiszeit zurückzudatieren, Zitat aus dem Novo-Artikel mit Hervorhebungen:

Unser Wissen über die Milanković-Zyklen ermöglicht uns, Vorhersagen über die zukünftige Entwicklung des Klimas zu treffen. Nach dem aktuellen Zyklus hätte vor etwa 5000 Jahren das nächste Glazial beginnen müssen. Dass das nicht eingetreten ist, liegt an dem anderen Faktor, der neben der auftreffenden Sonnenenergie unser Klima maßgeblich beeinflusst: den Treibhausgasen. Genauer: am menschlichen Treibhausgasausstoß. Vor etwa 12.000 Jahren, im Neolithikum, begann ein globaler Übergang von Jäger- und Sammlerkulturen zu sesshaften Bauern. Um Flächen für die Landwirtschaft zu gewinnen, wurden im großen Stil Brandrodungen durchgeführt, was erhebliche Mengen an CO2 freisetzte. Hinzu kam Methan durch Viehhaltung und Reisanbau (Reisfelder sind im Wesentlichen künstliche Sümpfe). Mit der Industrialisierung im 19. Jahrhundert nahm die CO2-Konzentration durch die Verbrennung von Kohle und später Erdöl und Erdgas weiter zu

Korrekt dauert eine Zwischeneiszeit aber etwa 10.000-15.000 Jahre, sodass unsere gegenwärtige Warmzeit mit bisher etwa 12.000 Jahren Dauer noch voll im Zeitrahmen ihrer Vorgänger liegt. Selbst das IPCC geht übrigens davon aus, dass erst seit den 1950-er Jahren eine Klimawirksamkeit von anthropogen erzeugtem CO2 nachweisbar sei. Die Rückdatierung des menschlichen Einflusses auf das Ende der letzten Eiszeit ist also ein völlig unwissenschaftlicher Akt.

Dem Novo-Autor gebührt jedenfalls ein Lob für seine sachliche Auseinandersetzung mit den vorgeblichen Klimawandelfolgen. Man kann daher sicherlich davon ausgehen, dass er sich intensiv über die wissenschaftlichen Grundlagen seines Beitrags informiert hatte. Im Umkehrschluss muss man dann anhand der oben aufgezeigten Mängel den Schluss ziehen, dass die hier genannten geowissenschaftlichen Grundlagen der natürlichen Paläo-Klimagenese durch den fortwährenden CO2-Klimaalarmismus inzwischen völlig aus der aktuellen gesamtwissenschaftlichen Darstellung verdrängt worden sind.

Die gesamte klimawissenschaftliche Argumentation dieses Artikels baut also einseitig auf einem alarmistischen und grob überzeichneten CO2-Antrieb für die Genese unseres Paläoklimas auf, der so niemals existiert hat. Es ist offenbar dem klimawissenschaftlichen Zeitgeist geschuldet, alle bekannten geologischen und paläoklimatischen Mechanismen mit einem vermeintlichen CO2-Klimaantrieb zu verknüpfen. Das Aktualitätsprinzip der Geologie verlangt aber, dass sich alle vom Menschen postulierten Effekte über die gesamte Erdgeschichte hinweg nachweisen lassen, um als gültig anerkannt zu werden.
Und genau das ist beim vorgeblichen CO2-Klimaantrieb eben nicht der Fall.

Aber gerade wegen der hier aufgezeigten Mängel ist die Analyse des Novo-Autors herausragend, Zitat: „Es drängt sich die Frage auf, ob es bei dem ganzen Klimaschutz-Hype wirklich um Klimaschutz geht.“

Es wurde hier also völlig richtig erkannt, dass unterschiedlichste säkulare Zielsetzungen diverser gesellschaftlicher Gruppierungen in einem gemeinsamen vorgeschobenen Klimaschutz kumulieren. Es ist daher sehr schade, dass sich dieser sachliche und unaufgeregte Artikel dem Teufelskreis menschlicher Überheblichkeit am Ende doch nicht verschließen kann, sondern einem Geoengineering zur aktiven Klimagestaltung durch den Menschen das Wort redet. Denn beides, die Angst von einer menschengemachten Klimakatastrophe, wie auch menschliches Geoengineering zur Steuerung des Klimas, überhöhen den Einfluss des Menschen auf die Stufe der herrschenden Naturgewalten.

Und so werden gerade in der abschließenden Argumentation zum Geoengineering neue Widersprüche aufgerissen, Zitat aus dem Artikel: „…Durch Geoengineering können wir uns von den massiven Vergletscherungen und Schwankungen des Meeresspiegels befreien, die unseren Planeten seit jeher heimsuchen…“
Entscheidungsvorschläge, die allein auf zeitgeistbeeinflusstem Wissen aufgebaut sind, können nicht nur, sondern sie müssen am Ende sogar zwingend katastrophale Folgen haben. Vergletscherung und Meeresspiegel auf unserer Erde hängen nämlich ursächlich miteinander zusammen. Eine durch Geoengineering von ihrer gesamten Vergletscherung befreite Erde würde am Ende einen um etwa 66 Meter höheren Meeresspiegel aufweisen. Damit wäre dann zwar tatsächlich das Problem der langsam steigenden Küstenpegel gelöst, aber nach einer solchen „Rettungsaktion“ gäbe es dann diejenigen Küsten und Inseln gar nicht mehr, die wir damit ursprünglich einmal bewahren wollten.

Anmerkung: Ingenieurwissenschaftliche Eingriffe in komplexe Systeme sind generell nicht ganz unproblematisch, insbesondere dann nicht, wenn man ein solches System genau verstanden zu haben glaubt und dieser Glaube sich dann in der Realität nicht durchsetzen lässt:

Zitat aus Wikipedia mit Hervorhebungen und Ergänzungen: „Die Kritiker (einer Einführung der Aga-Kröte nach Australien) beruhigte der für die Einführung (der Aga-Kröte) verantwortliche Reginald Mungomery 1936, indem er darauf verwies: Die Ansiedlung in Queensland erfolgte nach einer sorgfältigen Abwägung der Pros und Contras und nachdem das Verhalten der Kröte bis heute keinen Anlass für die Befürchtung gibt, dass wir uns in unserem Urteil über sie getäuscht haben‘.“

Unsere Erde hat in ihrer geologischen Vergangenheit schon mehrfach Eiszeitalter durchlaufen. Über die Ursache für diese Eiszeiten gibt es bisher nur qualitative wissenschaftliche Aussagen. Das Geoengineering stellt uns jetzt aber Mechanismen zur Verfügung, mit denen wir möglicherweise am Klimathermostaten unserer Erde herumspielen können. Aber während man die Sonneneinstrahlung rechnerisch in Raum und Zeit genau quantifizieren kann, entzieht sich der vorgeblich „natürliche“ atmosphärische Treibhauseffekt jeder genauen räumlichen und zeitlichen Definition. Und selbst die hemisphärische Herleitung der globalen Temperaturgenese ohne diesen Treibhauseffekt kann keine quantifizierbare Formel liefern. Damit ist die natürliche Temperaturgenese auf unserer Erde also völlig ungeklärt und wir wissen nicht, wie die solare Heizung unserer Erde tatsächlich funktioniert. Vor diesem Hintergrund wird jedes globale Geoengineering zu einem verantwortungslosen Vabanque-Spiel…

Wesentliche geowissenschaftliche Zusammenhänge unseres Paläoklimas sind hier zusammengefasst.




Günter Ederer: Fakten statt Propaganda – zur Machtfrage durch Klimapropaganda (11.IKEK)

G. Ederer beschreibt seine Erfahrungen bezüglich des Umgangs von Politik und Medien mit kritischen Stimmen, welche gegen die Weltuntergangspropaganda vom gefährlichen menschengemachten Klimawandel vorgehen. Das Motiv für dieses stringente Ausgrenzen kritischer Stimmen ist – wie Ederer darlegt- das Ausüben von Macht. Und das weltweit!

Video des Vortrags von Günter Ederer, gehalten anlässlich der 11. IKEK in Düsseldorf am 10.11.17 im Nikko-Hotel

Macht die überdies überall und damit grenzenlos ist. An vielen Beispielen, wie dem FAZ Journalisten Müller-Jung, macht er diese Beobachtung fest. Ebenso legt er an div. Beispielen dar, welche Sogwirkung der versprochene Milliardensegen auf die Zustimmung der so Beschenkten hat. Wie auch schon zuvor von M. Limburg gezeigt, wird dieses Geld ausnahmslos an korrupte oder hoch korrupte Länder bzw. deren Regierungen verteilt.




Das Klimaziel 2020 musste aufgegeben werden!

Nun also ist die Stunde der Wahrheit gekommen, und man muss erklären, endlich, das Klimaziel 2020 muss aufgegeben werden. Na, das wird 2028, wenn 2030 vor der Tür steht, auch nicht anders sein.

Schon die Definition von „Zielen“ ist ein übler Spuk, eigentlich brauchen wir nicht Ziele, sondern Konzepte, die klar durchgerechnet und von Jahr zu Jahr kontrolliert werden können, aber dazu kann sich das politische System nicht durchringen, das wäre ja auch zu ehrlich. Von einer Regierung, die Verantwortung wirklich ernst nimmt, muss man verlangen, dass klar definiert wird, was will man erreichen, wie kommt man dahin, und was kostet das. Für das einfache Volk jedoch müssen nebulöse Wunschvorstellungen reichen, so eine Art moderner Fatah morgana. Und, brauchen wir überhaupt ein Klimaziel ? Dazu gibt es ganz aktuell auch eine Veröffentlichung (hier):.

Wo wir heute wirklich stehen, zeigt die nachfolgende Grafik:

 

Dieses Diagramm stammt aus dem „Masterplan Weserbergland“, ist also eine offizielle Statistik, und ich habe in dieses Diagramm nun die (jährlichen) Aufwendungen für die „Erneuerbaren“ eingetragen, es sind erhebliche Beträge mit zur Zeit ca. 28 Milliarden Euro pro Jahr.

Man vergleicht mit 1990, und damit lügt man sich schon mal ordentlich in die Tasche, hier hat der CO2-Ausstoß zwar tatsächlich abgenommen, aber das hat mit Klimaschutz nichts zu tun (ist kein Erfolg irgendeiner Energiepolitik), sondern es ist die Folge der Wiedervereinigung, verbunden mit der Abwicklung der total veralteten sozialistischen Wirtschaft in der DDR und den angrenzenden Ostblockländern (weiter östlich, in Russland, findet eine Modernisierung der Technik auch heute nahezu nicht statt). Dass man veraltete Technik durch modernere ersetzt ist vernünftig, das hätte man auch ohne einen Hinweis auf Klimaschutz gemacht, und ist im Westen schon in den 50-er Jahren geschehen.

Die Investition in die Erneuerbaren (über das EEG) beginnt in 2000. Einen kurzen Rückgang der CO2-Emissionen hat es zuletzt noch in 2009 gegeben, das war eine Folge der Finanzkrise, seitdem haben wir Jahr für Jahr weiter steigende Subventionen für die Erneuerbaren aufbringen müssen, jedoch ist noch nicht mal eine Tendenz erkennbar, dass sich das in Reduzierung von CO2 auswirkt oder jemals auswirken wird. Die Gründe dafür sind gut bekannt, denn da die Speichermedien fehlen, braucht jede EE-Einheit ein Backup-Kraftwerk gleicher Größe, um das Netz stabil aufrechtzuerhalten, und man gewinnt nichts. Im Netz muss der tatsächliche Bedarf an elektrischer Energie sekundengenau ausgeglichen werden, sonst gerät man in die Gefahr eines „Blackouts“, also eines Zusammenbruchs der Energieversorgung für Stunden oder Tage. Das heute über die technische Entwicklung von über 100 Jahren entstandene Netz ist sogar noch anspruchsvoller, auch die Frequenz hat nur eine zulässige Toleranz von ca. 0,1 Hz, für die Versorgung einer solchen Technik ist die durch Wind und Wetter stark schwankende Leistung der Erneuerbaren natürlich nicht geeignet. Man kann die Charakteristik der Erneuerbaren in einem einfachen Dreisatz darstellen:

1.) Nachts ist es dunkel. Das kann man politisch nicht ändern.

2.) Der Wind weht, wenn er will, und nicht, wenn er soll.

3.) Die Speicher fehlen, sie sind technisch und ökonomisch nicht darstellbar.

Das sagt eigentlich alles, man kann die Erneuerbaren einpacken. Das geschieht übrigens auch, klamm-heimlich natürlich, denn niemand möchte eingestehen, dass man in gigantischer Weise Fehler gemacht hat, Beispiele dazu später.

Aus dem oben dargestellten Diagramm ist ersichtlich, dass mit den Erneuerbaren für den Klimaschutz eigentlich nichts erreicht werden kann. Dazu muss man dann drei Forderungen aufstellen:

1.) Wir müssen den Bürgern die Wahrheit sagen. Die Erneuerbaren, so, wie wir sie heute haben, sind für den Klimaschutz nutzlos.

2.) Ein weiter so darf es nicht geben. Zumindest muss die Subventionierung dieser offensichtlich nutzlosen Technik beendet werden.

3.) Die Politiker, die diesen Schaden zu verantworten haben (es ist ein Schaden in finanzieller Hinsicht, in Umweltzerstörung und Ressourcenverschwendung) müssen zur Verantwortung gezogen werden.

Die naturwissenschaftlichen und technologischen Gegebenheiten sind so, dass zu erkennen ist, dass sich an dieser Situation in absehbarer Zeit nichts ändert. Wenn wir also für den Klimaschutz nichts erreichen, stellt sich doch die Frage, kann man die Erneuerbaren denn wenigstens auch sonst noch irgendwie brauchbar einsetzen.

Abgesehen von der Volatilität, die nicht beherrschbar ist, kommt ein weiterer Nachteil hinzu, die erneuerbare Energie kommt zunächst kostenlos auf uns zu (der Wind weht und die Sonne scheint, ohne dass wir dafür etwas bezahlen müssen), aber diese Energie ist „dünn“, das heißt, sie ist über eine große Fläche verteilt, der Flächenbedarf ist riesig, und wenn man diese „dünne“ Energie einsammeln will, muss man große Flächen mit Technik zubauen, man muss diese Flächen der Natur entziehen und in eine Industrielandschaft verwandeln, das ist vom Umweltschutz her gesehen natürlich extrem nachteilig.

Ein einfaches Nachrechnen mit dem Taschenrechner zeigt, dass der gesamte Bedarf an Primärenergie (der Bedarf ist rund fünf mal so groß wie der elektrische allein) für Deutschland, selbst wenn man alle Wälder, Natur- und Landschaftsschutzgebiete auch noch einsetzt, nicht gedeckt werden kann, es bleibt eine erhebliche Lücke. Die Ideologen, die die Propaganda der Energiewende betreiben, haben dazu noch andere Vorstellungen entwickelt, man müsste den Energiebedarf eben deutlich reduzieren, durch Steigerung von Effizienz und Suffizienz. Die Steigerung der Effizienz, also das Bemühen mit weniger Energie-Aufwand dasselbe Ziel zu erreichen, ist praktisch zum Stillstand gekommen, die Potentiale sind hier längst ausgeschöpft, da sind nur noch Reste von wenigen Prozent erreichbar. Der oben erwähnte „Masterplan Weserbergland“ fordert eine Reduzierung des Verbrauchs um 50 Prozent (sonst kann man die Welt nicht retten).

Dann bleibt Suffizienz, was wird hinter diesem Fremdwort versteckt ? Nun, es ist die Vorstellung, unser Lebenswandel ist sündig, wir verbrauchen eigentlich mehr als uns zusteht, es wird also eine beträchtliche Einschränkung an Verbrauch und damit auch eine Minderung des Lebensstandards gefordert. Wir führen also die Technik des Mittelalters ein (also die Windmühlen), und dazu passend reduzieren wir auch den Lebensstandard auf die Zeit vor Erfindung der Dampfmaschine Diese Vorstellungen gibt es tatsächlich (z.B. „klimaneutrales Berlin“.), in der praktischen Konsequenz das durchzusetzen, das laut zu sagen wagt dann doch niemand.

Wenn also klar ist, dass die „Energiewende“, also der Ersatz des gesamten Energieverbrauchs durch Erneuerbare weit jenseits jeder Realität liegt, kann man nicht wenigstens Teile des Energieverbrauchs (oder wenigstens des elektrischen Verbrauchs) durch Erneuerbare gestalten ?

Voraussetzung für die praktische Verwendung der Erneuerbaren ist die Bereitstellung der Speichereinheiten, denn dann könnte man den volatilen Strom soweit glätten, dass er nach dem jeweiligen Bedarf in Netz eingespeist werden kann, und soweit das gelingt kann man dann auch die Bereitschaft (und den zugehörigen Leerbetrieb) der konventionellen Anlagen einschränken, und dann ergäbe sich zum ersten Mal tatsächlich so etwas wie Klimaschutz, also eine tatsächliche Reduzierung von CO2-Ausstoß.

 

Was brauchen wir denn nun tatsächlich ? Das hängt von der Energiequelle ab, wir gehen die Beispiele mal durch.

  1. A) Wasserkraft.

Hier brauchen wir kaum Speichereinheiten, der Speicher ist der Obersee mit seinem Energievorrat, der ist natürlich vorhanden, abgesehen in einem strengen Winter, wenn Vereisung den Betrieb beschränkt, was aber kaum vorkommt. Aber, Wasserkraft ist nicht weiter ausbaubar und hat nur einen sehr kleinen Anteil (ca. 1 Prozent) am Energieaufkommen.

  1. B) Erdwärme, Geothermie

In bescheidenem Maß für die Beheizung von Wohnraum einsetzbar, der Investitionsbedarf ist sehr hoch, in städtischen Bereichen ist das nicht realisierbar. Es gibt eine kleine Versuchsanlage in der Größenordnung von etwa 70 kW. Größere Versuche scheiterten, weil es dann zu seismischen Erscheinungen kam und die Sicherheit von Gebäuden gefährdet war. Für die elektrische Verwendung eigentlich unbrauchbar, da die Temperaturdifferenz sehr klein ist und der thermische Wirkungsgrad (Carnot) dann sehr bescheiden ist.

  1. C) Bio-Energie, Biogas usw.

Der Vorteil: Bio-Energie ist grundlastfähig, man braucht keine Speicher. Die Nachteile aber sind gewaltig. Am Anfang der Bio-Energie steht die Photo-Synthese, und die hat einen Wirkungsgrad von nur 0,7 Prozent, damit hat man wieder einen riesigen Flächenbedarf. Wie er hier wirklich aussieht, sagt die bekannte Leopoldina-Studie, ich zitiere wörtlich: „Der Input an fossiler Energie in Landwirtschaft und Verarbeitung von Biomasse zu Biobrennstoffen übersteigt häufig den Bioenergie-Output.“ Was „häufig“ an Zahlenwerten wirklich bedeutet, das herauszufinden ist mir bisher nicht gelungen, es gibt aber Studien, die zeigen, dass man für einen Liter Bio-Diesel gut 2 Liter fossilen Diesel braucht, also ein wirtschaftlich unsinniges Verfahren. Damit hängt es auch zusammen, dass Bio-Energie massiv subventioniert wird und sich nur so halten kann. Ein weiterer gravierender Gesichtspunkt ist auch, dass die Bio-Energie in direkter Konkurrenz zur Nahrungsmittelerzeugung steht, und da Deutschland ein Netto-Importeur an Nahrungsmitteln ist bedeutet jeder Quadratmeter Boden, der hoch-subventioniert für die Bio-Energie zur Verfügung gestellt wird, in Wahrheit Export von Hunger in die Welt.

In bescheidenen Grenzen kann man an die Verwertung von Abfällen denken, das geschieht auch (z.B. Müll-Verbrennung). Aber, in einer biologisch geführten Landwirtschaft gibt es gar keine Abfälle. Abfälle kann man aus der Massen-Tierhaltung verwenden, die aber natürlich auch unter ethischer Kritik steht, da allein für die Futterversorgung der Tiere Nahrungsmittel aus der dritten Welt importiert werden, die dort für die Versorgung von Menschen fehlen. Kleinere Mengen von biologischen Abfällen werden gesammelt und verwertet, in ländlichen Gegenden lohnt sich das aber auch nicht, die „Bio-Tonne“ gibt es dort nicht, weil allein das Einsammeln mehr Energie verbraucht als man am Ende gewinnt.

 

Fazit also: Bio-Energie ist also, abgesehen von geringen Beständen an Abfallverwertung, für die Energieversorgung insgesamt ungeeignet.

 

  1. D) Photovoltaik, PV

Die Sonne soll es bringen, das klingt doch so schön. Aber, wie oben schon erwähnt, nachts ist es dunkel. Also brauchen wir hier die Speicher, sonst geht gar nichts. Dass es nachts dunkel ist, ist noch das kleinere Problem, denn dann bräuchte man ja nur einen Speicher für einige Stunden. Von daher könnte PV eine gewisse Möglichkeit für Länder in der Nähe des Äquators sein. Für die europäischen Länder aber stellt sich die Problematik der Jahreszeiten, denn gerade in der Winterzeit, wenn der Energiebedarf im größten ist, liefert PV wenig oder fast nichts. Das bedeutet konkret, man braucht einen Speicher, der die im Sommer eingesammelte Energie aufnimmt und für den Winter bereit stellt. Das ist nicht zu realisieren, und damit ist die Photovoltaik für unsere Breitengrade für die Energieversorgung nicht geeignet.

 

Nun könnte man denken, es wäre doch immerhin noch nützlich, wenn man die Nachtstunden durch Speicher überwindet und dann wenigstens in den Sommermonaten eine brauchbare Energietechnik hat. Das ist aber zu kurz gedacht, denn die konventionellen Anlagen muss man wenigstens für die Winterzeit vorhalten, und was macht man dann im Sommer, dann stellt sich die soziale Frage, schickt man die Arbeiter nach Hause und bezahlt dann „Sonnengeld“? Das wäre volkswirtschaftlich unsinnig, und auch die kleine PV-Hausanlage müsste man stark besteuern, weil diese ja die übrige Versorgung in ungünstige Betriebsbereiche treibt (diese ist also in Wahrheit sozial-schädlich).

 

Fazit: die notwendigen Speichereinheiten sind nicht realisierbar. PV-Anlagen auf Feldern müssten abgebaut werden, und die Felder werden der Natur (und der Versorgung mit Nahrungsmitteln) wieder zurückgegeben. PV-Anlagen auf Dächern können bleiben, die stören ja zunächst einmal nicht (sieht ja auch ganz hübsch aus) , aber man muss doch kontrollieren, dass sozial-schädlicher Betrieb unterbleibt oder wenigstens durch Besteuerung ausgeglichen wird.

 

  1. E) Windenergie

Hier hat man nun gleich beide Probleme, der Flächenbedarf ist riesig, also man muss weite Flächen der Natur entnehmen und in Industrielandschaften umwandeln, und dann kommt die Volatilität hinzu, die Versorgung ist unzuverlässig und schwankt unplanbar zwischen Höchstwerten und Werten bei null. Letzteres ist der Grund, warum man diese Technik, die ja so preiswert ist, Wind kostet ja nichts, in der Vergangenheit aufgegeben hat. Unsere Windmühlen wurden etwa 1860 auf Dampf umgestellt, man bezahlt lieber Kohle und hat eine stete und planbare Versorgung. Die letzten Segelschiffe für den Frachtverkehr wurden um 1930 aufgegeben, auch da war dann das Faktum, der Wind ist zwar umsonst, aber so unzuverlässig, dass er mit den Dampfern nicht mithalten konnte. Wie heißt es im „Fliegenden Holländer“ so schön: „Wer auf den Wind baut, baut auf des Satans Erbarmen“. Das ist eine alte Menschheitserfahrung.

Energiewende (also nicht nur elektrischer Strom ) ist also schon vom Flächenbedarf her nicht zu realisieren. Frage also, geht es denn wenigstens mit der Stromwende, oder einen beträchtlichen Anteil davon ?

Für eine zuverlässige Versorgung stellt sich sofort die Frage der Speicherung. Alle Versuche dazu sind bisher krachend fehlgeschlagen (dazu weiter unten mehr), es gibt einfach kein tragfähiges und einigermaßen durchgerechnetes Konzept. Da man hier kein Konzept hat und sich das auch nicht eingestehen will, stürzt man sich in Aktionismus und plant und baut die Leitungssysteme, die man zwar auch braucht, die aber ohne Speicherung keinen Sinn machen, was nützt eine Leitung, durch die tagelang kein Strom fließt ?

Welche Speicher braucht man denn wirklich ? Ausführlich beschäftigt sich damit Prof. Sinn in seinen Vorträgen, jetzt ganz neu: (https://www.youtube.com/watch?v=xzXAZad3TcE) Allein um den jetzt schon vorhandenen Ausbau an Wind (und Sonne) mit Speichern zu versorgen kommt man nach seinen Berechnungen auf eine Anforderung von 3000 bis 6000 Pumpspeicherwerken, Deutschland hat 35 davon, dabei auch kleinere, die an diese Anforderungen nicht herankommen, das ist also vollkommen illusorisch.

Die andere Möglichkeit ist noch die Speicherung über chemische Energie, also Akkumulatoren. Da hat Enercon etwas vorgestellt, wörtlich: „Es ist der bislang größte Batteriespeicher in Deutschland“, das Pilotprojekt RRKW bei Feldheim (Windblatt 03-2015). Von der äußeren Größe wohl beeindruckend, etwa ein halbes Fußballfeld, und was es kostet, wird nicht verraten. Allerdings für die Stromwende bräuchte man dann 2 Millionen Stück davon, für die Energiewende dann doch 10 Millionen Stück, also für je 8 Bundesbürger eines, und die müssten das bezahlen, warten und in Betrieb halten. Da wird dann sofort klar, das ist weit jenseits jeder Realität.

Weitere Beispiele irrsinniger Ideen will ich hier ersparen.

 

Die gegenwärtige Realität.

Man hat wohl unter der Hand eingesehen, dass es praktische Möglichkeiten für eine Speicherung nicht gibt, jedenfalls wird dazu konkret nichts angefangen. Daher müssen nun die konventionellen Anlagen einspringen und die fehlenden Speicherungen ersetzen, und für eine solche Betriebsweise sind diese aber nicht konzipiert. Kohlekraftwerke und Kernkraftwerke laufen in der Grundlast, ein Kohlekraftwerk braucht zum Anheizen 8 Stunden oder mehr (Kernkraftwerke sind spürbar schneller, aber die will man ja vernichten), und es muss ständig in Betrieb gehalten werden, da es ja den Totalausfall der Erneuerbaren (die sog. „Dunkelflaute“) sofort ausgleichen können muss. Das Kohlekraftwerk ist so konzipiert, dass es rund um die Uhr im Dauerbetrieb läuft, nur dann hat es den besten Wirkungsgrad. Wenn man nun herunterregeln soll (weil gerade Wind kommt, der gesetzlich „Vorrangeinspeisung“ hat, ohne diesen Zwang würde das niemand abnehmen), dann gerät die Anlage in ungünstige Betriebszustände (und erhöhten Reparaturbedarf) und verbraucht ungünstig viel Kraftstoff. Wenn das schnell gehen soll, dann hilft man sich anders, man verschiebt die Phase (um 180 Grad) und packt die überschüssige Energie, die man anders nicht los wird, in die Überlandleitungen, die allerdings auch nur bis zu etwa 80 Grad Celsius aufgeheizt werden dürfen. Also, um die Erde zu kühlen heizen wir kräftig die Leitungen. Wenn das auch nicht reicht, dann geht das in den „Export“ (man nennt das „Export“), allerdings, der ist ziemlich teuer, für die Nachbarländer ist unser „grüner“ Strom eigentlich nur Sondermüll, der stört dort die Netze, und das lässt man sich bezahlen (sog. „negative Preise“), und auch das geht in die EEG-Umlage Auf einen Export-Überschuss, den man teuer bezahlen muss, sollte man eigentlich besser verzichten, aber die Volatilität der Erneuerbaren, die man sonst nicht beherrschen kann, erzwingt dies. Die Folgen dieser Konzeption haben wir oben im Diagramm gesehen, der CO2-Ausstoß geht nicht zurück, und es ist auch nicht erkennbar, wie das anders werden wird. Man bezahlt also zwei Systeme, die konventionellen Anlagen kommen sogar in ökonomische Schwierigkeiten, da sie bei halber Last oder weniger dann nicht mehr genug verdienen, um ihre Arbeiter zu bezahlen. Das einzige, was wirklich gut läuft, sind die Profite der Anlagenbetreiber, nur das allein ist dem System wichtig, eine extrem unsoziale Umverteilung von unten nach oben.

 

Wie geht es nun weiter ?

Man macht unverdrossen weiter, obwohl alle Voraussetzungen für eine solide Entwicklung fehlen, die Propaganda läuft und verkündet stolz neue Erfolgszahlen und gaukelt Klimaschutz vor, aber das sind Schein-Erfolge, eben nur Durchschnittswerte an elektrischer Leistung, die die Taschen der Anlagenbetreiber füllen. Zu einem brauchbaren System kommt man nicht, denn die Konventionellen müssen trotzdem in voller Kapazität in Bereitschaft gehalten werden, man kommt vermehrt in Phasen, in denen zu viel produziert wird (und zu anderen Zeiten nichts, nach wie vor), und das ist auch nur schädlich, da man den dann notwendigen Export zusätzlich bezahlen muss, oder, wenn das nicht geht, müssen erneuerbare Anlagen zurückgeregelt werden, aber dafür, dass sie weniger liefern, bekommen sie trotzdem noch den vollen Preis, und es wird nur zusätzlich teurer, und das alles ohne einen wirklichen Nutzen. Das ist die Situation, solange das EEG, wenn auch leicht „gedeckelt“ in Kraft bleibt, was am Ende eine rein politische Frage ist. In der Politik wird von einigen Seiten versprochen, dass „die Kohle“ nun zurückgefahren werden soll, selbst Ausstiegstermine werden phantasiert, aber wie das konkret gehen soll, das weiß kein Mensch. Wenn praktische Konzepte fehlen, dann müssen eben Sprüche reichen. Dann gibt es auch Vorgänge, dass man mit Gewalttätigkeiten gegen Anlagen des Bergbaus vorgeht, aber damit kann man natürlich nicht naturwissenschaftliche Gegebenheiten und technologische Zwänge aufheben, eine Mischung von Brutalisierung und Hilflosigkeit zugleich.

Für die ältesten Anlagen ist die Stunde der Wahrheit schon gekommen, Panorama 3 berichtete darüber in einer aktuellen Sendung

https://www.ndr.de/nachrichten/schleswig-holstein/Rueckbau-bei-Windraedern-oft-mangelhaft,windkraft920.html

Schon der Abbau der Fundamente bringt erhebliche Probleme, und man versucht, die gesetzlichen Vorschriften zu umgehen. Und warum wird denn da abgebaut ? Im Nebensatz kommt verschämt die Erläuterung, wörtlich: „sei es dass die Nutzungszeit der Anlagen abgelaufen ist und damit dann der Rückbau fällig wird“ . Mit „Nutzungszeit“ ist hier offensichtlich die Zeit der Subventionierung gemeint, und es wird deutlich, ohne Subventionierung geht bei den Erneuerbaren nichts. In einem Zeitraum von sage und schreibe 20 Jahren wurden in diese Anlagen erhebliche Mittel gesteckt, geliefert wurde ein weitgehend wertloses Produkt, eben „Flatterstrom“, den man im Netz eigentlich nicht gebrauchen kann, und in der Propaganda wurde uns immer erzählt, das sei ja eine „Anschubfinanzierung“, mit der die Marktreife erreicht werden soll. Diese Marktreife ist offensichtlich nicht erreicht worden, denn ohne „Vorrangeinspeisung“ ist niemand bereit, dieses Produkt abzunehmen, im Gegenteil, beim Abschub in das Ausland gibt es „negative Preise“, und damit kann man allein den Erhalt der Anlagen nicht bezahlen.

Aus alledem ist festzuhalten: die Anlagen an Erneuerbaren, die wir heute noch bauen, sind für den Klimaschutz nutzlos (da die Speichereinheiten fehlen und weiter fehlen werden), sie sollen für 20 Jahre erhebliche Subventionen erhalten, und nach dieser „Nutzungszeit“ müssen sie abgebaut werden, da die Marktreife nicht erreicht werden kann. Einzige Schlussfolgerung: dieser Irrsinn ist umgehend zu beenden (also EEG abschaffen), ohne Subventionierung wird niemand solche Anlagen bauen, das hat sich dann von allein erledigt, und Natur und Umwelt können aufatmen. Mit den dann eingesparten Beträgen, ca. 30 Milliarden pro Jahr, könnte man an die wirklich dringenden Aufgaben herangehen, also z.B. Sanierung der Schulgebäude oder der übrigen Infrastruktur.

Einen sehr lesenswerten Beitrag zu dieser Problematik gibt es auch hier:

https://docs.google.com/viewerng/viewer?url=http://www.vernunftkraft.de/de/wp-content/uploads/2017/12/171225-Kompendium.pdf&hl=de

 

Die Flops

Es ist immer dasselbe, von Zeit zu Zeit wird eine neue Sau durchs Dorf getrieben, also ein neues, vielversprechendes Projekt wird angekündigt. Da gibt es eine feierliche Eröffnung, mit Reden des Ministerpräsidenten, die schöne und heile Welt der erneuerbaren Energie wird verkündet. Bald danach stellt man fest, die Sache läuft total aus dem Ruder, zumindest finanziell, keiner möchte lange mehr zuzahlen für eine Sache, die doch nichts wird, also, es wird dann doch wieder alles abgebaut, das dann ohne feierliche Reden, klammheimlich eben. Und um das zu vertuschen erklärt man uns, man hätte ja ernsthaft so etwas wie Energiewende gar nicht vorgehabt, man hat nur soeben mal ein bisschen rumexperimentiert, ohne konkretes Ziel, das muss man sich schon mal ein paar Milliönchen kosten lassen.

Die Liste dieser Flops will ich in einem späteren Beitrag zusammenstellen.