Hurrikan-Apostel (Editorial WELTWOCHE Zürich)

von Roger Köppel  (Chefred. WELTWOCHE Zürich)*

Eigentlich ist es der Stoff für einen neuen Stephen-King-Roman. Der amerikanische Meisterschriftsteller des intelligenten Horrors hat Bücher geschrieben über das, was mit ­Menschen passiert, wenn sie mit Bedrohungen konfrontiert werden, die grösser sind als sie selbst.

Ich kann mich an einen Stephen-King-Film erinnern, da verbarrikadieren sich ein paar Amerikaner in einem Supermarkt, während draussen aus einer unheimlichen weissen ­Wolke namenlose Monstren auf die Menschheit niedergehen, langbeinige Riesenspinnen oder Käfer mit gewaltigen Giftstacheln.

King ist nun weniger an den körperlichen ­Eigenschaften der Kreaturen interessiert. Ihn fasziniert die Frage, wie sich die Menschen zur Wehr setzen, vor allem: wie sich ihre Gemeinschaft unter dem Angriff der grauenvollen, wie von einem zornigen Gott entsandten Gefahr verändert.

Im Supermarkt purzeln plötzlich die alten Hackordnungen. Der vorher auftrumpfende Lokalpolitiker verkriecht sich und wird als Feigling entlarvt. Die unscheinbare Brillen­trägerin an der Kasse entwickelt plötzlich ­un­geahnte Führungsqualitäten.

Vor allem aber mobilisiert der Angriff der Monsterinsekten den heiligen Furor eines Spinners am Hundefutter-Regal, den vorher ­niemand zur Kenntnis nahm, der aber in der neuen Situation zum unverhofften Charisma­prediger, zur religiösen Autorität, avanciert. Er gewinnt die Menschen, indem er die Monstren als göttliche Strafe, als moderne Heuschreckenplage gegen die frevelnden Sterblichen, beschreibt.

Der Trick funktioniert. Bald folgen die ­Supermarktleute dem neuen Moses blind,­ ­vielleicht ist es auch eine Frau, der Film liegt lange zurück. Seine Botschaft verlangt bedingungs­losen Gehorsam. Wer sich widersetzt oder die Deutungen des Sehers bestreitet, muss den ­Supermarkt verlassen: ein sicherer Tod.

So geht das gute neunzig Minuten lang. Als Zuschauer wissen wir nicht, was es mit dieser weissen Wolke und den Killerinsekten auf sich hat. Ist es womöglich doch eine Strafe des Allmächtigen? Mumpitz: Es handelt sich um Züchtungen der US-Armee, die aus Versehen ins Freie gelangten. Am Schluss führen Polizisten den Prediger ab, der wieder ein Spinner ist.

Was will uns King mit dieser Story sagen? ­

Erstens: Hört auf, auf Menschen zu hören, die euch in schwierigen Situationen erzählen, sie seien die Sachwalter höherer Wahrheiten oder göttlichen Willens. Das sind Verrückte, Be­trüger oder beides.

Zweitens: Bezieht nicht jede Katastrophe, die ihr nicht auf Anhieb versteht, automatisch auf euch selbst. Diese Schuld­egozentrik ist ein Steilpass für das Böse.

Warum komme ich jetzt auf Stephen King und seine Theorie des religiösen Katastrophenscharlatans?

Weil uns diese Scharlatane wieder auf allen Kanälen genau das einreden, was King in seiner Monsterparabel so treffend in eine spannende Geschichte packte: dass die jüngsten Stürme, Felsstürze und Gletscher­abbrüche die gerechten Strafen für unsere Sünden seien, keine Insektenmonster, aber ­andere Heimsuchungen, die von oben aus der Wolke kommen.

Nehmen wir Bundespräsidentin Doris Leuthard. Zwischen den Felsmassen von Bondo ­predigte sie kürzlich in ihren Designerkleidern und Designergummistiefeln, dass wir alle ­selber schuld seien am Unheil, denn der Berg sei abgebrochen wegen des «menschengemachten Klimawandels», den es endlich entschlossen zu bekämpfen gelte, selbstverständlich mit der Klima- und Energiepolitik der Bundespräsidentin.

Gegenfrage: Übernimmt Frau Leuthard eine Garantie, dass es in der Schweiz keine Felsstürze mehr gibt, wenn ihre Energiestrategie einst durchgekommen ist?

Verzeihung, ich sehe keinen Unterschied zwischen dem Spinnerprediger im Supermarkt von Stephen King und den Journalisten und Bildschirm-Existenzen, die seit Wochen, beispielsweise in der wissenschaftlichen Tages­zeitung Blick, fuchtelnd die These verkünden, die Hurrikane von Florida und Texas seien die Quittung für alle, die sich weigern, einen Tesla zu kaufen oder das Pariser Klimaabkommen gut zu finden.

Ich bin sicher, diese Leute würden am liebsten den neuen US-Präsidenten vor ein Nürnberger Klimaverbrecher-Tribunal zerren, wovon sie vorläufig nur deshalb absehen, weil sie tief in ihrem Innersten ahnen, dass die Nichtunterzeichnung dieses ohnehin unverbindlichen Klimavertrags durch Trump so kurz vor den Sommerferien doch noch nicht die Kraft ­zweier Tropenstürme entfesseln konnte. Spätestens im nächsten Jahr allerdings, wenn ­irgendwo an der Atlantikküste im Spätsommer bei einem Unwetter eine Palme umgeblasen wird, sind die Beweisketten lückenlos.

Jedoch: Genauso wenig, wie es im Roman von Stephen King fruchtete, dem katastrophengläubigen Endzeitprediger ein paar Fakten entgegenzuhalten, ist es heute aussichtsreich, durch Argumente den Klima-Apokalyptikern den Wind aus den Segeln nehmen zu wollen.

Ich versuche es trotzdem.

Nach dem neusten Klimabericht des IPCC, «Executive Summary», Tabelle Seite sieben, gibt es weltweit «low confidence» (kaum Anzeichen) für langfristige Veränderungen bei Zahl und Heftigkeit von Tropenstürmen.**

Einzig im Nordatlantik habe es seit 1970 «virtually certain» (fast sicher) mehr Stürme gegeben, kaum aber im frühen 21. Jahrhundert. Erwarten uns in den nächsten hundert Jahren stärkere Orkane? Auch dafür gebe es höchstens schwache Belege. Dasselbe gilt für den Zusammenhang zwischen menschlichem Verhalten und Sturmintensität.

Man darf das so lesen: Selbst der hehre Weltklimarat, der ausdrücklich dafür geschaffen wurde, die Menschheit vor dem menschen­gemachten Klimawandel zu warnen, muss zugeben, dass es keine eindeutigen Belege für ­gefährlichere Tropenstürme gibt.

Kratzt das irgendjemanden von diesen Hurrikan-Aposteln da draussen? Natürlich nicht, aber schon Stephen King wusste: Das menschengemachte schlechte Gewissen ist der wertvollste Rohstoff, den es gibt, und erst noch beliebig erneuerbar. Nichts ist süsser als die Macht, die sich daraus ziehen lässt.

)* Anmerkung der EIKE-Redaktion : Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Hurrikan-Apostel | Die Weltwoche, Nr. 37/2017 | 14. September 2017  : http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Roger Köppel für die Gestattung des ungekürzten Nachdrucks.

===============================================================================

)**  Original-Zitat mit Quelle hier :

=========================================================================




Auswirkungen von Windtur­binen: neue umfas­sende Bewertung

[Vorbemerkung des Übersetzers: Alle folgenden Zahlenangaben und Verhältnisse beziehen sich auf die USA. Ich denke aber, dass Gleiches im Verhältnis auch für Deutschland und/oder Mitteleuropa gilt. Ende Vorbemerkung].

Es ist erstaunlich, wenngleich auch wenig überraschend, wie schnell einige Chaoten bei der Hand waren und die Schäden durch Hurrikan Harvey als Grundlage für Behauptungen heranzogen, dass Emissionen fossiler Treibstoffe eine katastrophale Klimaänderung und Wettervorgänge auslösen. Ihre angebotene Lösung ist natürlich, jene fossilen Treibstoffe zu ersetzen durch „saubere, nachhaltige, erneuerbare“ Energie.

Ich habe diese vorgebrachte Lösung immer wieder kritisiert, aus vielen Gründen. Unglücklicherweise war eine übereilte diesbezügliche numerische Berechnung von mir für eine jüngst erschienene Kolumne falsch, was meine Leser mir auch sofort mitteilten. Allerdings boten mir meine Begutachter auch viele „korrekte“ Zahlen an.

Eine weitere Variable ist natürlich die Strommenge, welche durch Wind ersetzt werden soll. Im Jahre 2016 verbrauchte die Welt 25 Milliarden Megawattstunden (MWh) Strom, erzeugt durch fossile Treibstoffe, Wasserkraft und Kernkraftwerke. Minimale Beiträge kamen durch Biomasse, noch geringere durch Wind und Solar. Die durchschnittliche Energieerzeugung über das Jahr betrug 2,85 Millionen Megawatt (MW) oder 2,85 Terawatt (TW) – verglichen mit Null Erzeugung im Jahre 1881.

Strom macht unsere Industrien, Arbeitsplätze, Reisen, Kommunikation, Lebensstandard, Gesundheit und Sicherheit erst möglich, und die Nachfrage wird wird mit Sicherheit steigen, wenn sich immer mehr Nationen elektrifizieren und mehr Fahrzeuge von Batterien angetrieben werden.

Weitere Annahmen: Ein Drittel des Turbinen-Outputs versorgt die Gesellschaft, zwei Drittel laden Batterien auf, welche für 48 Stunden alle 72 Stunden Energie liefern, wenn der Wind nicht weht. Und Winde arbeiten immer zugunsten dieses Schemas – er ist immer zur Stelle, wenn die Batterien leer sind, und verschwindet nie länger als zwei Tage, auch nicht während heißer Sommer und eisiger Winterkälte, wenn der Bedarf sprunghaft steigt, aber der Wind verschwindet.

Natürlich existieren die meisten dieser Annahmen nur im Reich von Feen, Zauberstaub, Grünenergie-Utopia und bei grober Vereinfachung. Sie sind dazu gedacht, wichtige Analysen auf den Weg zu bringen, ebenso wie Debatten, welchen sich Klimaalarmisten, Befürworter erneuerbarer Energie, Gesetzgeber und Politiker niemals gestellt haben.

Auf der Grundlage dieser Annahmen würde die Erzeugung von 25 Milliarden MWh 1,6 Millionen 1,8-MW-Turbinen erfordern, die alle mit voller 1,8 MW-Kapazität bei starkem Wind laufen, jeden Tag ohne Bedenken hinsichtlich Speicherung. Falls sie nur 8 Stunden am Tag laufen (33% der Kapazität), dürfen wir Strom nur dann verbrauchen, wenn er gerade verfügbar ist, und nicht, wenn wir ihn brauchen. Aber das ist schrecklich unbequem und störend.

Das würde eindeutig nicht funktionieren. Wir brauchen in Wirklichkeit mindestens für 48 Stunden Speicher – und folglich drei mal so viele Turbinen unter diesem Arrangement. Aber um flexibler sein zu können und den unvorhersagbaren Windverhältnissen Rechnung zu tragen, wobei durchaus auch mal zwei windstille Tage hintereinander auftreten können, bräuchten wir 14,4 Millionen 1,8-MW-Turbinen.

Wollen wir eine noch bessere Sicherheit? Um uns gegen sieben windstille Tage zu wappnen? Nun, 50 Millionen Turbinen sollten dafür reichen.

Aber dann würden wir wirklich auf zweit- und drittklassige Windstandorte zurückgreifen müssen. Die Kapazität fällt auf 16,5% oder so. Vielleicht werden 100 Millionen Turbinen dann ausreichen. Beten wir dafür, dass eine Windstille nie länger als eine Woche dauert. Oder man schicke die Armee zu jenen unversöhnlichen, unpatriotischen Küstengemeinden, die dann mit Gewalt Turbinen installiert an ihren windigen Standorten.

Dies würde auch sicherstellen, dass die Stromerzeugung nahe unserer großen urbanen Zentren erfolgt – was kürzere Überlandleitungen und weniger Zement, Stahl, Kupfer und so weiter benötigen würde, um die Leitungen zu errichten. Es ist eine Win-Win-Situation, außer natürlich für all jene, die den Anblick der Turbinen und Leitungen ertragen müssen oder in der Nähe wohnen.

Von welcher Landfläche reden wir, wenn wir 25 Milliarden MWh jährlich global Strom erzeugen wollen? Legt man Spitzen-Windstandorte zugrunde mit 5 KW pro Acre (mittlerer Output pro Landgebiet für jede Turbinen an den windreichsten Standorten) würde man auf dem Festland etwa 570 Millionen Acres [ca. 2.280.000 km²] Land brauchen für den Betrieb an 24 Stunden pro Tag, 7 Tagen die Woche und 365 Tagen pro Jahr.

Das sind 25% der Landfläche der USA – oder 48% der Lower 48 US-Staaten. Das ist fast die gesamte Landfläche von Washington, Oregon, California, Idaho, Nevada, Montana, Wyoming, Utah und Arizona zusammen!

Und nicht zu vergessen die Übertragungsleitungen und Batterien. Auch diese brauchen Landflächen (und Rohmaterialien).

Wie viele Batterien? Für die Speicherung von 1 GWh Strom – um eine Stadt in den USA mit 700.000 Einwohnern 48 windstille Stunden lang mit Strom zu versorgen – würde man 480.000 der neuen Tesla-100-kWh-Lithium-Ionen-Batterien benötigen. Der Backup von 2,85 TW für nur zwei windstille Tage würde 1,4 Billionen Tesla-Einheiten erfordern! Und dies auch noch unter der Voraussetzung, dass die Batterien auf- und entladen werden mit einer Effizienz von 100%.

Man stelle sich einfach mal den Landverbrauch, die Massen von Rohmaterialien, Bergbau, Herstellung und die Energie vor, die für die Herstellung all dieser Batterien erforderlich sind [darunter der massenhafte Abbau hochgiftigen Kobalts z. B. im Kongo durch Kinder, die teils kaum fünf Jahre alt sind! Siehe u. A. hier! Anm. d. Übers.]. Außerdem müssen diese Batterien alle paar Jahre erneuert werden. Wie der Energie- und Technologie-Analyst Mark Mills gesagt hat: alle derzeit in der Welt bestehenden Lithium-Batterien-Fabriken zusammen stellen nur einen Bruchteil davon her.

Ich bin absolut sicher, dass die Batterie-Hersteller der Welt nur zu glücklich sein werden, für unsere hart erarbeiteten Steuergelder und auf Kosten der Verbraucher mehr Fabriken zur Herstellung all dieser Batterien zu errichten – um uns vor einem gefährlichen Klimawandel zu bewahren, der nicht mehr von der Sonne und anderen mächtigen natürlichen Kräften gesteuert wird.

Werden wir konkret. Es ist an der Zeit aufzuhören, mit Feenstaub und Programmen erneuerbarer Energien aus Utopia zu agieren. Es ist an der Zeit, unsere Schulen und unsere Legislative zum Nachdenken zu bringen über Energie, Nachhaltigkeit, Klimawandel und alles, was unsere Arbeitsplätze, Gesundheit und Lebensstandard sichert. Es ist an der Zeit für umfassende Studien und legislative Anhörungen zu all diesen Themen – in den USA, der EU, UK und überall in der Welt! [Und doch treten sämtliche, um die Wiederwahl streitenden Parteien hier in D mit einer alternativen Ausnahme für genau das ein, was Driessen hier so eindrucksvoll an die Wand malt!! Anm. d. Übers.]

Behauptungen bzgl. Nachhaltigkeit und erneuerbare Energie wurzeln viel zu stark in Ideologie, Zauberei und Politik. Wind- und Solarstrom-Vorhersagen ignorieren die Notwendigkeit, riesige neue Metall- und Mineral-Lagerstätten zu finden und auszubeuten – und US-Landgebiete zu opfern, die jetzt noch tabu sind, wenn wir nicht alle unsere Windturbinen, Solarpaneele und Batterien importieren wollen. Sie gehen davon aus, dass Auswirkungen des Landverbrauchs einfach nicht existieren, falls es um den Hinterhof von anderen Menschen geht.

Schlimmer noch, viel zu oft wird jeder, der versucht, diese unbequemen Wahrheiten anzusprechen, niedergeschrien, ruhig gestellt und ignoriert [allem voran diesbezüglich die „Süddeutsche Zeitung“. Anm. d. Übers.]. Das muss aufhören! Es geht um zu viel, als dass man Ideologie und Feenstaub als Treiber für fundamentale Politik heranzieht.

Link: http://www.cfact.org/2017/09/04/revisiting-wind-turbine-impacts/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (3)

Im ersten Teil dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Der zweite Teil der Analyse beschäftigte sich mit der Fragwürdigkeit der Messmethoden und den dabei eingesetzten Tricks und Manipulationen. Im jetzigen dritten Teil werfen wir einen Blick auf die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie auf die Methoden und Tricks, mit denen die öffentlich-rechtlichen Medien als Sprachrohr industriefeindlicher Behörden die Wirklichkeit verzerren und die Öffentlichkeit irreführen.

Die Horrorstory der ARD, Teil 1: Feinstaub…

Im Rahmen ihres „Faktenfinder“-Artikels verweisen die Autoren auf einen Kurzfilm der ARD über die angeblichen Gefahren durch verkehrsbedingte Emissionen von Feinstaub und Stickoxiden [TAGS]. Darin erläutert der SWR-Reporter Martin Schmidt, unterbrochen von animierten Abgasfahnen und gespielten Hustenanfällen, dass Feinstaub nach Berechnungen des Umweltbundesamtes allein in Deutschland 47.000 vorzeitige Todesfälle verursachen soll. Zwar gebe es noch andere Feinstaubquellen wie Industrie oder private Heizöfen, doch sei der weitaus größte Teil dem Verkehr anzulasten. Diese Aussage ist nachweislich falsch, Bild 2 und Bild 3.

Bild 2. Die wichtigsten Verursacher von Feinstaubpartikeln in der EU (Grafik: [THAL])

Die Feinstaub- Emissionen werden innerhalb der gesamten EU von der Europäischen Umweltagentur (EEA) erfasst und ausgewertet. In ihrem zusammenfassenden Bericht aus dem Jahr 2016 [THAL] findet sich eine detaillierte Aufstellung der Hauptquellen der als besonders gefährlich eingestuften Feinstaub-Kategorie PM 2,5 (das sind ultrafeine Partikel mit Durchmessern unterhalb von 2,5 µm, die besonders tief in die Lunge eindringen). Aus dieser Grafik geht eindeutig hervor, dass der Anteil des Straßenverkehrs bei lediglich 13 % liegt, während Industrie und Haushalte mit 56 % den weitaus größten Anteil haben. Die sekundäre Rolle des Verkehrs zeigt sich auch an den Daten des Luftschadstoff-Emissionskatasters Baden-Württembergs für das Jahr 2014 [LUKA], Bild 3.

Bild 3. Prozentuale Aufteilung der Emissionsquellen für Feinstaub PM 2,5 in Baden-Württemberg (Daten: [LUKA])

Auch in Baden-Württemberg haben dagegen Feuerungen – zu dieser Kategorie gehören kleine und mittlere Feuerungsanlagen, d.h. auch Pelletheizungen und Kamine, Schwedenöfen usw. – mit fast 40 % den weitaus größten Anteil. Zum Straßenverkehr ist anzumerken, dass dessen Anteil nur zu einem geringen Anteil aus Auspuffgasen stammt, sondern aus dem Abrieb von Bremsen und Reifen sowie vor allem aus der Aufwirbelung von Straßenstaub. Der Verkehr wirbelt somit vor allem lediglich den Dreck in die Luft, den die Kamine in die Landschaft geblasen haben, wird aber dafür dann verantwortlich gemacht. Selbst E-Mobile würden daher kaum weniger Feinstaub erzeugen. Fahrverbote würden lediglich die Städte und die Industrie lahmlegen, aber die Gleichung „keine Industrie=gute Volksgesundheit“ ist keine vertretbare Option. Fahrverbote bei Feinstaubalarm sind Nonsens und wären rechtlich nicht zu begründen. Die Städte täten wesentlich besser daran, den Wildwuchs bei den bisher so eifrig befürworteten Pellet- und Holzheizungen einzudämmen. Mit heutiger Drohnentechnik sollte es endlich möglich sein, direkt an den Schornsteinen die RHE-Werte (Real Heating Emissions) kostengünstig zu untersuchen. Dadurch könnte man auch den gar nicht so wenigen „Sündern“ auf die Schliche kommen, die es für praktisch halten, ihren Sperrmüll auf diesem Wege kostengünstig loszuwerden, Bild 4. Bei solchen illegalen Verbrennungen entstehen extrem giftige Substanzen, die alles in den Schatten stellen, was bei den peinlich genau kontrollierten Verbrennungsprozessen in Kfz-Motoren entsteht.

Bild 4. So mancher Kamin wird zur „kostengünstigen Entsorgung“ von Sperrmüll genutzt und dadurch zur Giftschleuder. DUH und Konsorten sollten sich mal dafür interessieren, aber mit Klagen gegen Häuslebauer ist halt nicht so viel Geld zu verdienen…

Die Horrorstory der ARD, Teil 2: Stickoxide

Nach der Verdammung des Feinstaubs kommt der SWR-Reporter dann gegen Ende der Sendung zu seinem eigentlichen Thema. Das Lamento über Feinstaub diente ihm vor allem als Kunstgriff zur Einstimmung der Zuschauer auf sein Hauptanliegen, die Anklage gegen das Stickstoffdioxid. Nach effektvoller Einleitung mit einer weiteren simulierten Hustenattacke kommt er zur Sache: „Auch Stickstoffdioxid ist sehr gefährlich“. Es könne zum Beispiel Atemwegsprobleme oder Herz-Kreislauferkrankungen auslösen. Nach Erkenntnissen des UBA sei in Innenstädten der Verkehr mit 84 % der Hauptversucher, und Schuld daran seien fast ausschließlich Dieselfahrzeuge.

Das sind gleich drei Unwahrheiten, genauer gesagt eine Halbwahrheit und zwei regelrechte Falschaussagen. Man muss sich wirklich fragen, wie man als Fernsehanstalt solche Dinge ungeprüft in einer Nachrichtensendung verbreiten kann. Schauen wir uns diese Vorwürfe im Einzelnen an.

Welche Gefahr geht von Stickstoffdioxid wirklich aus?

Was ist eigentlich Gift? Im Prinzip ist fast alles giftig. Wem ist schon bewusst, dass Salz ein tödliches Gift ist? Im Jahre 2005 starb im Saarland ein Kind, weil es gezwungen wurde, einen versehentlich versalzenen Pudding komplett aufzuessen. Zwar lebte es bei der Einlieferung in die Klinik noch, konnte aber dennoch nicht mehr gerettet werden [SALZ1].

Bild 5. Etwas mehr als ein Esslöffel des eigentlich lebensnotwendigen Minerals Salz genügte, um ein Kind zu töten

Zwar ist dies ein Extremfall, aber tödlich ist Salz auch in weit geringeren Mengen. Fachleute gehen davon aus, dass weltweit jährlich über 2 Millionen Menschen aufgrund von Herzerkrankungen sterben, die durch zuviel Salz im Essen verursacht werden [SALZ2]. Oder nehmen wir das Beispiel Alkohol: Das edle Genussmittel in Bieren, Weinen und Schnäpsen ist de Facto ein krebserregendes Nervengift, dem jedes Jahr 74.000 Deutsche zum Opfer fallen. Die Liste ließe sich beliebig fortsetzen, denn ab einer gewissen Menge ist fast jeder Stoff giftig. Erst das Zuviel macht aus einem natürlichen oder gar lebensnotwendigen Stoff ein unter Umständen tödliches Gift. Das gilt selbst für Wasser (dessen tödliche Dosis bei ca. 6 Liter liegt). Auch Stickstoffdioxid ist ein natürlich vorkommendes Spurengas in unserer Atmosphäre. Ein Grenzwert von Null, wie er von einigen Epidemiologen gefordert wird, ist pure Utopie. Statt solche sinnfreien Forderungen zu stellen, sollte man über die Zulässigkeit von Dosierungen sprechen, Bild 6.

Bild 6. Frühere und heutige NO2-Grenzwerte in Deutschland und der Schweiz

Grenzwerte am Arbeitsplatz…

Über mögliche Beeinträchtigungen durch NO2 in Abgasen für die Allgemeinheit sollte man daher nur im Zusammenhang mit den Dosierungen sprechen, die tatsächlich in der Luft unserer Städte vorliegen. Das sind im Mittel nirgendwo mehr als 90 µg/m3 mit seltenen Spitzen bis etwas über 200 µg/m3. Dieser Wert ist gleichzeitig die Geruchsgrenze, d.h. man kann nicht unbemerkt vergiftet werden. In diesem Konzentrationsbereich ist NO2 nicht giftig, sondern lediglich ein Reizstoff für die Lunge. Der Grenzwert für die Dauerbelastung von Mitarbeitern bei körperlicher Arbeit (MAK-Wert) lag früher in Deutschland bei 9.000 µg/m3 und wurde erst Anfang der 2000er Jahre auf 950 µg/m3 reduziert, in der Schweiz liegt er sogar bei 6.000 µg/m3. Bis zu dieser Schwelle ist NO2 also kein Gift, sondern lediglich ein Reizstoff, dem man als gesunder Erwachsener bis zu rund 1.500 Stunden pro Jahr ausgesetzt sein kann, ohne nachteilige gesundheitliche Auswirkungen befürchten zu müssen. MAK-Werte werden von einer Kommission festgelegt, die mit Fachleuten aus verschiedensten Bereichen wie z.B. der Toxikologie und der Arbeitsmedizin oder der Lungenheilkunde besetzt sind. Sie werden so definiert, dass sie nach aktuellem Kenntnisstand der Medizin sicher unterhalb der Gefährdungsgrenze liegen.

Bild 7. Das krebserregende Nervengift Alkohol ist im Unterschied zu Stickstoffdioxid selbst in kleinsten Mengen gefährlich

und Grenzwerte in Büro- und Privaträumen

Da die Bevölkerung nicht nur aus Gesunden besteht, wurden auch die Auswirkungen wesentlich darunter liegender Konzentrationen z.B. auf Asthmatiker oder Kinder mit großer Sorgfalt untersucht. Auch hier obliegt dies einem eigenen Fachgremium, in diesem Fall dem Ausschuss für Innenraumrichtwerte des Umweltbundesamtes. Dort wurden verschiedenste Kurzzeit- und Dauerbelastungs-Grenzwerte definiert, die mit großen Sicherheitsmargen nach unten sicherstellen sollen, dass selbst die Schwächsten unserer Gesellschaft bei Dauerbelastung keinen Schaden nehmen. Dieser für Büroräume ebenso wie für Privatwohnungen geltende Grenzwert liegt bei 60 µg/m3. Im Unterschied zum MAK-Wert gilt er auch für Dauereinwirkung rund um die Uhr, da wir zwischen 70 und über 90 % unserer Zeit in solchen Räumen verbringen.

Woher kommt der tiefere Grenzwert in der Außenluft?

Da die 60 µg/m3 deutlich über den für die Außenluft geltenden 40 µg/m3 liegen, stellt sich die Frage, wie es zu diesen krass unterschiedlichen Festlegungen gekommen ist. Die Antwort ist ganz einfach: Es handelt sich um ein Diktat von oben, d.h. es mussten Vorgaben der EU übernommen werden. Deutsche Fachgremien hatten nichts zu melden. Und bei den zuständigen EU-Gremien orientierte man sich an Vorgaben der Weltgesundheitsorganisation WHO. Wir haben also die absurde Situation, dass dort, wo man sich eher selten aufhält, nämlich auf dem Bürgersteig einer sehr stark befahrenen Straße, wesentlich strengere Grenzwerte gelten als in den Innenräumen und Büros, wo ein deutlich höherer Pegel als gesundheitlich unbedenklich eingestuft wird. Hinter diesen unterschiedlichen Ansichten stecken auseinandergehende Auffassungen über die Methoden, die zur Ermittlung gesundheitlicher Risiken eingesetzt werden.

Messen oder Simulieren?

Vereinfacht ausgedrückt geht es um die Frage, ob man sich an den Verfahren der Pharmaforschung oder an statistisch ermittelten Daten orientiert. Toxikologen gehen nach den Methoden vor, die z.B. auch für die Entwicklung von Medikamenten vorschrieben sind. Sie erforschen die Wirkungsweise bestimmter Substanzen im Körper und bestimmen eindeutige Ursache-Wirkungs-Zusammenhänge. Epidemiologen erfassen dagegen große Bevölkerungsgruppen und versuchen, mögliche Gesundheitsrisiken mit statistischen Verfahren zu erkennen. Das kann jedoch zu Fehlschlüssen führen, z.B. weil Abgase ja als Gemisch auftreten. Ein Beispiel: man ermittelt Daten wie Krankheitshäufigkeit oder Todesursache von Menschen, die in der Nähe stark befahrener Straßen wohnen, in Abhängigkeit von der Entfernung ihrer Wohnung zur Straße. Doch kann man bei der Wahl solcher Kriterien auch böse danebenliegen. Ein Beispiel: Wohnungen direkt an Schnellstraßen sind unbeliebt und die Mieten daher sehr günstig. Also ziehen hier Menschen hin, die sich nicht mehr leisten können, Bild 8.

Bild 8. An solchen Straßen wohnen nur diejenigen, die zu arm sind, um die anderswo höheren Mieten zu bezahlen

Dann könnte ein Statistiker mit hoher Sicherheit Auswirkungen erhöhter Abgasbelastungen auf das Einkommen „errechnen“. Sogar mit einer erheblich höheren Sicherheit als bei der Ermittlung gesundheitlicher Auswirkungen der einzelnen Stoffe im kunterbunt zusammengesetzten Abgasgemisch.

Wegen dieser Mischung verschiedenster Abgasbestandteile ist daher oft nicht genau zu klären, welche Komponente des Abgases denn wirklich für die festgestellte gesundheitliche Beeinträchtigung verantwortlich ist. Das Pech für das NO2 ist, dass man es recht gut messen kann und daher gerne als generellen Indikator für Abgasbelastungen heranzieht. Dann kann es schnell passieren, dass man ihm Effekte anlastet, die eigentlich von anderen Bestandteilen wie z.B. dem krebserregenden Benzo-a-Pyren hervorgerufen werden. So werden in manchen epidemiologischen Studien Krebsrisiken „festgestellt“, die der Toxikologe bestreitet. Der WHO wird oft vorgehalten, sie setze zu stark auf solche epidemiologischen Studien. Aber sie hat halt bei den EU-Gremien Gehör gefunden.

Namhafte Wissenschaftler: Grenzwerte sind übertrieben

Jedenfalls bestreitet der führende Toxikologe und langjährige Vorsitzende der MAK-Kommission Professor Helmut Greim von der TU München die wissenschaftliche Basis des für die Außenluft festgelegten NO2-Grenzwerts von 40 µg/m3 NO2 im Freien: „Epidemiologen errechnen ihre Werte, wir Toxikologen messen sie und setzen danach Grenzwerte fest“. Seiner Ansicht nach sei eine Belastung von 40 µg/m3 NO2 im Freien völlig unbedenklich, solange der Arbeitnehmer bei der Innenluft dem 20fach höheren Grenzwert (950 µg) ohne Gesundheitsbedenken ausgesetzt sein darf [GREI]. Erheblich Zweifel an politischen Grenzwertsetzungen beim NO2 äußert auch Professor Tobias Welte. Aus seiner Sicht sei das der vollkommen falsche Parameter. Er glaube, dass Feinstaub eine wesentlich größere Bedeutung habe als Stickoxid. Deshalb wäre es wichtig, sich darauf zu konzentrieren [WELT]. Auch Welte ist, was die Beurteilung von luftgetragenen Schadstoffen angeht, als Leiter der größten Universitäts-Lungenklinik Deutschlands mit 30 Jahren Berufserfahrung und 700 Veröffentlichungen eine Kapazität von Rang. Und Prof. Koch vom Institut für Kolbenmaschinen am Karlsruhe Institut für Technik zitiert aus der Mail eines Pathologieprofessors und Leiters eines Pathologieinstituts folgende Passage: „Es sind wahrhaft Horrorzahlen und Horrorgeschichten, die über die Toxizität der Dieselabgase und deren angebliche Todesfälle insbesondere bezüglich des Feinstaubes in der Öffentlichkeit aus verschiedensten Interessen verbreitet werden. Man hat heute allgemein den Eindruck, die Luftbelastung habe in den letzten Jahren zugenommen und die Menschen seien dadurch vermehrt krank geworden, was in keinster Weise auf einer wissenschaftlichen Grundlage beruht. Im Gegenteil, die Menschen sind bis in das hohe Alter gesünder, insbesondere was ihre Lungen betrifft, und leben auch dadurch deutlich länger als früher [KOCH].

Festzuhalten bleibt: Der heute in Deutschland geltende Immissionsgrenzwert ist uns ohne Anhörung unserer Fachgremien politisch von außen aufgedrückt worden. Er dient nicht der Gesundheit der Bevölkerung, sondern befriedigt das Machtstreben von Ideologen. Hätte man stattdessen den für Innenräume seit 20 Jahren geltenden Wert übernommen, dann gäbe es heute gar keine NO2-Diskussion mehr. Nicht der Dieselmotor ist das Problem, sondern weltfremde Grenzwerte sowie die damit befeuerte Angstkampagne in den Medien.

Ist der Verkehr Hauptverursacher von NO2-Emissionen?

Als nächstes ist zu klären, ob der Verkehr in Innenstädten tatsächlich – wie in der Sendung unter Berufung auf das UBA behauptet – mit 84 % der Hauptverursacher von NO2-Emissionen ist. Da ist zunächst die Frage zu stellen, wann das UBA welche diesbezügliche Behauptung aufgestellt hat. Offensichtlich hatten dort vergleichbare Meldungen mit unterschiedlichen Zahlen in letzter Zeit Hochkonjunktur. Auf der sehr anwenderunfreundlichen UBA-Webseite ist es oft kaum möglich, den jeweils „richtigen“ zu finden. Die Suchfunktion gleicht einem Lotteriespiel, Bilder erscheinen grotesk geschnitten und es werden auch immer mal wieder Beiträge schon nach kurzer Zeit zurückgezogen. Deshalb nehmen wir hier eine etwas anderslautende UBA-Mitteilung vom 26. April 2017 mit der folgenden Grafik, Bild 9.

Bild 9. Vom UBA den verschiedenen Straßenfahrzeugtypen zugeordnete NO2-Emissionsanteile (Grafik: UBA)

Auffallend ist an dieser Darstellung insbesondere der niedrige Anteil der Busse. Das sah in einer Berechnung, die das Institut für Energie- und Umweltforschung Heidelberg 2006 im Auftrag des Umweltministeriums Baden-Württemberg durchführte, nämlich noch ganz anders aus, Bild 10.

Bild 10. Entwicklung der Emissionsanteile der verschiedenen Fahrzeugkategorien des Stadtverkehrs in Stuttgart bis zum Jahr 2014 (Grafik: [IFEU])

Dieser Recherche zufolge emittierten nämlich Busse 2004 volle 42 % der NO2-Emissionen in Stuttgart, gefolgt von Diesel-PKW mit 36 %, LKW mit 11%, Benzin-PKW mit 8 % und leichten Nutzfahrzeugen mit 3 %. Jetzt sollen es bei Bussen plötzlich nur noch 4 % sein. Das ist sehr unglaubwürdig, denn gerade Busse sind langlebige Investitionsgüter, die sehr lange eingesetzt werden müssen, damit sie sich rechnen. Dementsprechend langsam erfolgt auch die Verjüngung des Bestandes, Bild 11.

Bild 12. Prozentuale Aufteilung der Emissionsquellen für NOx in Baden-Württemberg (Daten: [LUKA])

Betrachtet man die Bilder 10-12 im Zusammenhang, so wirkt die Behauptung des UBA, dass der Verkehr in den Innenstädten für 84 % der NO2-Belastungen verantwortlich sei und diese fast ausschließlich dem Diesel anzulasten seien, doch ziemlich an den Haaren herbeigezogen. Bestätigt werden diese Zweifel auch durch unabhängige Untersuchungen des Instituts für Kolbenmaschinen am Karlsruhe Institut für Technik, Bild 13.

Bild 13. Unabhängige Untersuchung der Herkunft von NO2 in der Luft, Messstation Stuttgart Am Neckartor (Grafik: IFKM/ KIT)

Bei dieser Untersuchung von Professor Koch wurde zwischen Hintergrundgehalten – entfernter liegende Quellen, deren Abgase bereits großräumig verteilt wurden – und lokalen Quellen unterschieden. Da es bei dieser Art der Darstellung schwieriger wird, den Beitrag der einzelnen Quellen optisch leicht fasslich darzustellen, wurde zusätzlich eine zusammenfassende Grafik erstellt, Bild 14.

Bild 14. Zusammengefasste grafische Darstellung der anteiligen Emissionen der verschiedenen Fahrzeugkategorien aus Bild 9

Worüber regt man sich beim UBA eigentlich auf?

Festzuhalten bleibt zunächst, dass ungeachtet der lautstarken Kampagne in den Medien wegen gewisser Unterschiede zwischen den Vorgaben und den im Realbetrieb festgestellten Emissionswerten von neuen Dieselfahrzeugen die Gesamtbelastung in den Städten auch in den letzten Jahren kontinuierlich weiter gesunken ist. Das ist durch Bild 15 und Bild 16 eindeutig belegt.

Bild 15. Selbst an den „Hot Spots“ in den Städten sind die Messwerte seit 2006 kontinuierlich immer weiter zurückgegangen (Grafik: UBA)

Bild 16. Der weiter rückläufige Trend der NO2-Werte auch an den Stuttgarter Brennpunkten ist sogar bis Ende August 2017 belegt (Grafik: Stadt Stuttgart)

Somit haben die gerade bei neueren Fahrzeugen beobachteten Differenzen beim Emissionsverhalten keine nachteiligen Auswirkungen auf die Immissionswerte. Viel entscheidender ist die weiter fortschreitende Verjüngung des Bestandes durch Ersatz älterer Fahrzeuge mit schlechteren Abgaswerten. Anders ausgedrückt: Selbst ein noch nicht ganz perfekter EURO-6-Diesel ist immer noch viel besser als ein perfektes Modell mit EURO-5 oder gar EURO-3. Zudem kommen demnächst Fahrzeuge mit nochmals verbesserter Abgasbehandlung EURO-6dtemp auf den Markt. Wie sich dies auf die NO2-Belastung der Luft auswirken wird, zeigt Bild 17.

Bild 17. Projektion der 2020 an der Messstelle „Am Neckartor“ zu erwartenden NO2-Werte. Grau: Hintergrund, Gelb: Diesel-PKW, Grün: Benzin-PKW, Rot: schwere LKW (Grafik: IFKM/KIT)

Die zwielichtige Rolle der Umweltbehörden

Bei nüchterner Betrachtung der Fakten stellt sich die Frage, was mit den massiven Attacken von Umweltministerin Hendricks und UBA gegen den Diesel-PKW eigentlich bezweckt wird. Gesundheitsschutz der Bevölkerung kann es nicht sein, denn die Industrie hat es trotz unnötig übertriebener Grenzwertvorgaben geschafft, die NO2-Gehalte in den Städten langsam, aber kontinuierlich immer weiter zu senken. Durch neue Entwicklungen wird sich dieser Trend in den nächsten Jahren weiter fortsetzen. Die Gehässigkeit, mit der dennoch behördlicherseits auf die Hersteller losgegangen wird, hat offensichtlich einen tieferen Grund. Hendricks und UBA stehen unter Druck, weil sie mit ihrer Strategie zur Senkung der CO2-Emissionen Schiffbruch erlitten haben. Da kommt es ihnen zupass, die Individualmobilität mit Verbrennermotoren an den Pranger zu stellen. Man verspricht sich davon gleich zwei Vorteile: Ablenkung vom eigenen Scheitern und Schädigung einer Industrie, die in Sachen Elektromobilität nicht so will, wie es die Politik möchte, sondern das herstellt, was die Verbraucher verlangen.

Welches Spiel spielen ARD, ZDF und Co?

Von den dort arbeitenden Journalisten wäre eigentlich zu erwarten, dass sie sich nicht als Staatsfunk betätigen. Das hatten wir in Deutschland schon zweimal, einmal in Braun und einmal in Rot, und es hat dem Volk nicht gutgetan. Die Journalisten der Sender sollten Aussagen von Behörden, die in der Dieselthematik eine offen industriefeindliche Position einnehmen, eigentlich einer kritischen Kontrolle unterziehen. Das ist nicht geschehen, weshalb es jetzt an dieser Stelle nachgeholt wurde. Das Ergebnis dieser Nachkontrolle lässt sowohl das UBA als auch den Sender in einem ziemlich unvorteilhaften Licht erscheinen. Schließlich ist durch Statistiken belegt, dass der Anteil des Gesamtverkehrs an den NO2-Emissionen Deutschlands bis 2015 auf 40 % gesunken ist. Auch ist der Straßenverkehr nicht der einzige Verkehrsträger, es gibt darüber hinaus auch noch die Bahn, das Schiff und das Flugzeug. Oder sollten auf den Stuttgarter Bahngleisen tatsächlich keine Rangierloks mit Dieselantrieb fahren?

Eine Begründung für Autofahrverbote wegen Feinstaubalarm oder aufgrund von NO2-Werten lässt sich jedenfalls derzeit nicht ableiten. Juristen sollten in den hier dargelegten Fakten und Dokumenten genug Stoff finden, um Klagen der DUH vor Gericht scheitern zu lassen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 4

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[IFEU] Ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH Analyse der Ursachen für hohe NO2-Immissionen in Baden-Württembergischen Städten im Auftrag des Umweltministeriums Baden-Württemberg, Juli 2006

[KLIN] http://www.dnn.de/Dresden/Lokales/Dresdner-Professor-fordert-ideologiefreie-Debatte-ueber-Schadstoffe-durch-Autoverkehr

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch. Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LUKA] Luftschadstoff-Emissionskataster Baden-Württemberg 2014. Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA

[TAGS] http://www.tagesschau.de/multimedia/video/video-312819.html

2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[SALZ1] https://www.nwzonline.de/panorama/versalzener-pudding-kostet-angelinas-leben_a_6,1,2300022554.html

[SALZ2] https://www.medpagetoday.com/cardiology/prevention/38011

[WELT] http://www.ndr.de/nachrichten/niedersachsen/hannover_weser-leinegebiet/Stickoxid-Die-ueberschaetzte-Gefahr,stickoxid108.html




Kleine Energierückschau 2016, oder: Was ist Zappelstrom

Erneuerbare Energien sind die wichtigste Stromquelle in Deutschland …

Bild 1 Windpark. Bildquelle: Wattenrat, Homepage

Bundesministerium für Wirtschaft und Energie: Erneuerbare Energien
Wie das Ministerium darauf kommt, nachdem die „Erneuerbaren Energien“ gerade einmal 29 % Anteil am Strom liefern, davon die alleine weiter ausbaufähigen, Wind und Solar gerade einmal 15, 8 % (Wind 11,9 %, Solar 5,9 %) bleibt dessen Geheimnis. Aber damit ist auch nicht die Wirklichkeit, sondern der Wunsch gemeint.

Wie es die ersten zwei Bilder zeigen, reicht jedoch schon dieser Ausbau, um unsere Natur großflächig und rücksichtslos nicht nur verschandeln, sondern regelrecht kaputt machen. Für „Klimaretter“ ist es allerdings der ersehnte Umbau Deutschlands zur Energie-Erntelandschaft.

Und leider liefern das EEG nur „Zappelstrom“

Der Agora-Viewer bietet bezüglich der Elektroenergie sicher die schönsten Übersichtsgrafiken. Daraus der Verlauf des letzten Jahres. Herrlich sieht man den Zappelstrom der Erneuerbaren und die gewaltige Versorgungslücke, welche die konventionellen Kraftwerke stemmen müssen. Bild 3 zeigt die „Erneuerbaren“ mit dem Sockel, welchen Wasserkraft und Biomasse bilden. Wichtig ist jedoch Bild 4, denn es stellt den 15,8 %-Anteil von Wind gesamt und Solar ohne Biogas und Wasserkraft dar. Nachdem Biogas und Wasserkraft in Deutschland nicht weiter ausbaufähig sind, müssen diese beiden Quellen jeden weiteren EEG-Ausbau alleine „stemmen“.
Die große, stark schwankende Differenz zwischen benötigtem Strom und wirklich bereitgestelltem, und was das für Konsequenzen hat, ist in [1] [3] erklärt, vor allem auch in der Artikelreihe: EIKE 24.01.2016: [4] Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar
und in diesem Artikel deshalb nicht das (Haupt-)Thema.

Bild 3 Ganglinie von Stromverbrauch und EEG-Einspeisung im Jahr 2016. Quelle: Agora-Viewer

Bild 4 Ganglinie von Stromverbrauch und Einspeisung Windkraft gesamt + Solar im Jahr 2016. Quelle: Agora-Viewer

Zappelstrom“, erklärt für Dummies

Die wirklich angebotene Leistung im Verhältnis zur maximalen Leistung

Das folgende Bild 5 zeigt das Histogramm der Leistung von Solar und Windkraft gesamt im Jahr 2016. Bezug ist die maximale, im Jahresverlauf wirklich angebotene Leistung, also nicht die weit höhere, installierte.

Bild 5 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der übers Jahr kurzfristig gelieferten Maximalleistung. Grafik vom Autor anhand der Daten von Agora erstellt

Wem Histogramme nicht so geläufig sind, anbei die Tabellierung dazu:

Bild 6 Tabellierung der Daten von Bild 5

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über 18 Tage betrug die verfügbare Leistung im Maximum 5 %
-Über 63 Tage (also 2 Monate) betrug die verfügbare Leistung im Maximum 10 %
-Über 221 Tage (also 7,4 Monate) betrug die verfügbare Leistung im Maximum 30 %
-Über 308 Tage (also 9 Monate) betrug die verfügbare Leistung im Maximum 50 %

Die wirklich angebotene Leistung im Verhältnis zur installierten Leistung

Wer sich etwas mit Netzausbau auskennt weiss, dass die Übertragungssysteme nicht nach der zufällig in einem Jahr erreichten, maximalen Leistung, sondern nach der laut den technischen Angaben spezifizierten, installierten Leistung auszulegen sind. Würde man dies nicht beachten, wäre das Ergebnis das Gleiche wie bei einem Moped, dem der Bastelfilius einen Motorradmotor einbaut, um damit auf der Autobahn solche zu erschrecken, um sich alsbald (sofern er noch Glück hat) im Krankenhaus wiederzufinden, da das Fahrgestell und Reifen für diese Geschwindigkeit nicht gebaut waren.
Unter diesem Gesichtspunkt wird die schon vorher sehr ungünstige Verteilung der wirklich verfügbaren Energie (Bild 6) zum wahren Desaster, wie es Bild 7 und die zugehörige Tabelle zeigen.

Bild 7 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Bild 8 Tabellierung der Daten von Bild 7

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über das gesamte Jahr wurden als Maximum ca. 6 Stunden lang 55 % der installierten Leistung erreicht,
-während 9 Monaten betrug die angebotene Leistung nicht über 20 % der installierten.
Schlimmer kann man sich eine Energielieferung nicht vorstellen.

Damit nicht jemand meint, das wäre zu schlecht dargestellt, weil die wichtigen EEG-Träger Biomasse und Wasserkraft fehlen, die Grafik für das EEG gesamt noch anbei. Da die Letztgenannten so etwas wie eine Grundlast bieten, verschiebt sich die Verteilung nur leicht nach rechts.

Bild 9 EEG gesamt (Solar, Windkraft, Biomasse, Wasserkraft). Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten EEG-Gesamt-Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Die Bewertung durch politische Führungskräfte, welche sich zutrauen, über Deutschlands Energiesystem zu entschieden

Wenn man die Agora-Bilder und die Verteilungen dazu ansieht, wird erst richtig klar, welches (Un-)Wissen hinter Aussagen politischer Führungskräfte steckt, die sich damit aber zutrauen, über Deutschlands Energiesystem zu diskutieren und zu bestimmen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Für Personen, welche ebenfalls mit der Energie etwas auf Kriegsfuß stehen, es aber zugeben, anbei nochmals die Daten zur Aussage von Herrn Özdemir:
Anstelle der genannten, „mittags regelmäßigen“ 140 Gigabyte (gemeint waren von Herrn Özdemir natürlich Gigawatt), lieferten alle EEG-Lieferanten zusammen als absolutes Maximum am 08.02.2016:
-Einmal 54,2 GW (anstelle der angeblich regelmäßigen 140 GW)
-Der Anteil Wind und Solar betrug daran: 46,24 GW, also von den seitens Herrn Özdemir angegebenen nur 1/3tel (immer daran denken, alleine diese sind weiter ausbaufähig).
-Während des ganzen Jahres gab es nur für ca. 6 Stunden 67 % vom benötigten Bedarf, anstelle Herrn Özdemirs gemeldeter „sicherer“ Überlieferung von + 50 % (gesamt 150 %) zu jeder Mittagszeit,
alle Aspekte der Energiewende und die damit verbundenen Fragen des Klimaschutzes sowie für das Thema Energieeinsparung … Schwerpunkte der Energieberatungen werden die Neuregelung des Erneuerbare-Energien-Gesetzes (EEG), der Netzausbau und die Energieeffizienz sein.
GRÜNE Annalena Baerbock (Studium: Politikwissenschaft und Öffentliches Recht):
[1] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Der Vorteil ist, dass man die vollkommene Unkenntnis dieser „Fachdame“ alleine anhand der Aussagen sofort bemerkt.

Die (versprochenen) Lösungen

Es gibt jedoch auch die „Wissenschaftlichen“, welche aus verschiedensten Gründen das gleiche tun, es aber so „belegen“, dass es nicht jeder bemerkt.
DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
2050 werden Windparks, Solar- und Biogasanlagen mindestens 80 Prozent unseres Stroms erzeugen. Das führt zu Problemen beim Stromnetz. Es muss stabil sein, auch wenn der Strom weite Strecken zurücklegen muss. Im Rahmen der neuen Hightech-Strategie, arbeitet die Forschung an Lösungen – Zukunftsaufgabe „Nachhaltiges Wirtschaften und Energie“.
… Dass erneuerbare Energien den deutschen Strombedarf komplett decken können, wurde bereits 2007 mit dem Vorgängerprojekt Kombikraftwerk 1 nachgewiesen …In dem anschließenden Forschungsprojekt Kombikraftwerk 2 ging es vor allem um die Netzstabilität und die Sicherheit unserer Energieversorgung bei einer rein regenerativen Stromerzeugung

Mit unseren Empfehlungen ist alles erreichbar, wenn die Kosten, die Nachteile und dass es die Lösungen noch gar nicht gibt, nicht berücksichtigt werden muss.

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar.
… Die Regulierung des Stromverbrauchs, also ein realistisches Lastmanagementpotenzial, wurde im Modell berücksichtigt. Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen, so das Ergebnis im Projekt. Der Bau von Energiespeichern ist für die 100 Prozent erneuerbare Stromversorgung notwendig. Die Forscher empfehlen deshalb, neuartige Speichertechnologien wie Power-to-Gas weiter zu erforschen und zu entwickeln.

Bild 10 Aktuelle Kosten des Netz(Problem)Managements (ca. 1 Milliarde EUR / pa) Quelle: R. Schuster

Zu dieser Information fragt man sich, ob die „Fachpersonen“ in unserer Bundesregierung die Untertanen bewusst desinformieren. Denn dass sie so dumm sind, die Problematik der zitierten Analysen und ihrer „Information“ dazu nicht zu durchschauen, kann man sich (bei den Gehältern) nicht vorstellen.

Das „moderne Lastmanagement“ bedeutet nichts anderes, als Verbraucher in Zukunft konsequent wegzuschalten wenn der Strom fehlt:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Man kennt dieses Verfahren von Ländern, welche früher noch als unterentwickelt bezeichnet werden durften. Nur wurde es früher nicht als „intelligent“, sondern als notgedrungen und nachteilig bezeichnet. Seit dem neuen GRÜNSPRECH hat sich das gedreht und diese Länder sind uns in der Energieversorgungs-Entwicklung voraus. So weit, dass diese bestimmt noch vor uns den großen EEG-Sprung nach Vorne schaffen.

Kofi Annan, Vorwort im APP Bericht 2015: [2] … Africa has enormous potential for cleaner energy – natural gas and hydro, solar, wind and geothermal power – and should seek ways to move past the damaging energy systems that have brought the world to the brink of catastrophe.
Von google grob übersetzt: … Afrika hat ein enormes Potenzial für sauberere Energie – Erdgas und Wasserkraft, Solar-, Wind- und Geothermie – und sollte nach Wegen suchen, an den schädlichen Energiesystemen vorbei zu kommen, die die Welt an den Rand der Katastrophe gebracht haben …

EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
an dem im Großmaßstab dann kein Weg vorbei führt, da es sich trotzdem immer noch um das billigste, realisierbare, Groß-Speicherverfahren handelt.

100 % EEG-Stromversorgung

Im Artikel:
EIKE 11. September 2017: [1] Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen
wurden Details dazu ausgeführt. Daraus (Bild 10) die hochgerechneten Ganglinien bei 100 % EEG-Versorgung. Die Grafik zeigt, was es bedeutet, wenn in einer Studie steht, dass alles (von der Politik Gewünschte) machbar sei, jedoch empfohlen wird, ein paar kleine Probleme noch zu lösen, wofür bitte Forschungsgelder bereitzustellen sind:

Bild 11 [1] EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Powert to GAS Speicherverluste. Rot: EEG-Einspeisung, Braun: Strombedarf. Datenquelle: Agora

Wenn der Bund so dilettantisch agiert, könnte eine Partei in Bayern vielleicht besser sein?

Leser könnten den Eindruck gewinnen, der Autor würde vielleicht (beim Klima und EEG) „nur“ die GRÜNEN nicht leiden. Das stimmt so nicht. Die GRÜNEN bieten lediglich die konstantesten, extremsten und oft auch ulkigsten Beispiele (welche nur noch Frau Hendricks manchmal zu toppen schafft).
Auch die anderen Parteien sind davor jedoch nicht gefeit. Nehmen wir beispielhaft die CSU. Was vor über zwei Jahren darüber geschrieben wurde,:
[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus
… Unser Weg führt geradewegs in den Abgrund – etwas mulmig ist uns dabei schon – aber über den Weg wird nicht diskutiert …
gilt heute immer noch.

Bild 12 Integrierte Lösung des EEG-Problems aus einem wissenschaftlichen Vortrag [6]

Denn die CSU-Umweltministerin Bayerns steht den GRÜNEN und Frau Hendricks an bedingungsloser Klimahysterie in nichts nach. Die einzige Frage welche sich bei Ihr beim Autor stellt ist: Glaubt sie das wirklich, oder ist sie eine reine, automatische Sprechpuppe dazu? Er ist sich da nicht sicher.
[7] “Wir denken Klimapolitik global, regional und lokal”
… Nach der Ankündigung des amerikanischen Präsidenten aus dem Pariser Klimaschutzabkommen auszutreten, ist für die Bayerische Umweltministerin Ulrike Scharf klar, dass Bayern zu seinem Wort stehe und Klimapolitik global, regional und vor allen Dingen auch lokal gedacht werden muss. “Wir bekommen mit den Energieagenturen ein wirklich gewichtiges Mitglied zu unserer Klima-Allianz-Familie hinzu und unsere Stimme erhält damit eine neue Tatkraft”, begrüßte die Ministerin den Landesverband der regionalen Energieagenturen im Bund der Klimaallianz Bayern…
Als Fachreferenten waren keine geringeren als Martin Bentele (Verband proHolz Bayern) und Prof. Dr. Harald Lesch (LMU München) eingeladen. Beide zeigten eindrucksvoll die Umwelt- und Klimaentwicklungen der letzten Jahrzehnte auf und verwiesen auf die Notwendigkeit einer raschen Umsetzung der Energiewende mit einer enormen Reduzierung der Treibhausgasemissionen.

Quellen

[1] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[2] KLIMARETTER.INFO, 05. Juni 2015: Bericht fordert mehr Strom für Afrika

[3] EIKE 03.09.2017: Fake News von dpa: Offshore Windkraft produziert so viel Leistung wie vier sehr große, konventionelle Kernkraftwerke

[4] EIKE 24.01.2016: Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar

[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

[6] Prof. Dr.-Ing. Michael Sterner et al. 2013: Ringvorlesung Kraftakt Energiewende II

Bayerische Energieagenturen treten der Bayerischen Klima-Allianz bei




Ist die arktische Eisbedeckung halb voll oder halb leer?

Glücklicherweise werden die Bürger über dieses Meereis-Schmelze-Wendeereignis von den dafür zuständigen Forschern immer pünktlich informiert und so geschah es auch dieses Jahr durch das AWI.
innovations report 14.09.2017 und [2]: Arktisches Meereis erneut stark abgeschmolzen
… Mit einem Minimum von rund 4,7 Millionen Quadratkilometern setzt sich in der Arktis der Trend zum Rückgang des Meereises fort
In diesem September ist die Fläche des arktischen Meereises auf eine Größe von etwa 4,7 Millionen Quadratkilometern abgeschmolzen. Dies stellten Wissenschaftler des Alfred-Wegener-Instituts sowie der Universitäten Bremen und Hamburg fest. … Die Nordost-Passage war für Schiffe ohne Unterstützung von Eisbrechern befahrbar.
Das Meereis der Arktis gilt als kritisches Element im Klimageschehen und als Frühwarnsystem für die globale Erwärmung. Aus diesem Grund ist das Septemberminimum ein wichtiger Indikator für Klimaänderungen. Trotz eines besonders warmen Winters erreicht das Meereis in diesen Tagen zwar kein neues Rekordminimum, der Eisverlust ist dennoch massiv. „Wir befinden uns mit dem diesjährigen Wert weiterhin auf einem sehr niedrigen Niveau.

Die Homepage der Klimaberaterin informierte selbstverständlich auch darüber:
Halb voll oder halb leer – es hängt vom Standpunkt ab

Die Nachschau der Arktis-Meereisdaten zeigt eigentlich ein beruhigendes Bild. Gegenüber dem bisherigen Sommerminimum von 2012 (gestrichelte Linie) ist das diesjährige Minimum bei Weitem nicht so stark ausgefallen.

Bild 1 Arktisches Meereis, Stand 13. September 2017 (blaue Linie), Wert: 4,636 Mio. km². Minimum 17. Sept 2012 (gestrichelte Linie) Wert: 3,387 Mio. km2. Quelle: NSIDC

Im zeitlichen Verlauf des Sommerminimums seit den Satellitenaufzeichnungen sieht man es noch deutlicher. Der Stand 2017 ist höher, als der vom Jahr 2008. Al Gores Behauptung, die Arktis wäre im Sommer 2013 eisfrei, hat sich auch danach bisher nicht bestätigt.

Bild 2 Arktis, Meereisausdehnungs-Sommer-Minimum seit 1979. Stand 14. September 2017. Vom Autor ergänzt. Quelle: DMI

Für manche ist es vielleicht interessant, dass die Arktis-Sommertemperatur seit dem Jahr 1958 (Beginn der Datenreihe) praktisch gleich geblieben ist. Im folgenden Bild wurden dazu der Arktis-Temperaturverlauf vom Jahr 2017 über den vom Jahr 1958 gelegt. Man sieht: Die Arktis wurde bisher nur im Winter wärmer. Im Sommer hat sich seit dem Beginn der Messreihe nichts verändert.

Bild 3 Temperaturverlauf Arktis 1958 und 2017, Stand 14.09.2017 vom Autor übereinander kopiert. Quelle: DMU

Was zeigen diese Bilder? Das AWI hätte in seiner Pressemitteilung [2] anstelle:
Arktisches Meereis erneut stark abgeschmolzen“,
alternativ melden können:
Arktisches Sommereis-Minimum hat sich die letzten Jahre stabilisiert und das Sommereis nimmt zur“.

Wie man weiss, ist eine solch positive Meldung zum sich stetig wandelnden Klima in Deutschland nicht denkbar. Dazu ist die Forschung viel zu sehr mit einer angeblich schlimmen, zerstörerischen Form „AGW-Klimawandel“ verknüpft, deutlicher ausgedrückt: Von einer hoffentlich nicht endenden AGW-Klimawandel-Hysterie abhängig.

Das AWI hat sich geradezu aufgebläht und darf seine Forschungsflotte dank hoher, stetiger Förderung aus Berlin ausbauen.
WIKIPEDIA: AWI
Das AWI wurde 1980 im Zuge des deutschen Beitritts zum Antarktisvertrag gegründet. Anfangs wurde nur eine Handvoll Mitarbeiter beschäftigt, während das AWI heute 920 Forscher, Techniker und Verwaltungsangestellte an den unterschiedlichen Standorten einsetzt
.

Das Centrum für Erdsystemforschung und Nachhaltigkeit, kurz CEN, ist ein zentrales Forschungszentrum der Universität Hamburg und Teil des Netzwerks KlimaCampus Hamburg.
Beteiligt sind Ozeanographen, Meteorologen, Meeresbiologen, Geophysiker, Geologen, Bodenkundler, Geographen, Biogeochemiker, Wirtschafts- und Sozialwissenschaftler, Historiker sowie Friedens- und Sicherheitsforscher. Sie alle beschäftigen sich mit Klima-, Umwelt- und Erdsystemforschung.
Das CEN fördert die Konzeption und Durchführung von Forschungsvorhaben und unterstützt seine Mitglieder bei der Einwerbung von Drittmitteln.
Außerdem koordiniert das CEN aktuell den Antrag der Hamburger Klimaforschung im Rahmen der Exzellenzstrategie des Bundes und der Länder.

Wie waren die Vorhersagen zum Sommereis?

Einfach gesagt: Katastrophal. Grund war das sehr geringe Wintereis (im Bild 1 deutlich zu sehen). Entsprechend überschlugen sich „Fachleute“ und Medien mit Apokalypsen.

Wetterkanal, 8. Januar 2017: Arktiseis auf Rekordtiefstand
… Wenn es so durch den restlichen Winter weiter geht, ist kein allzu großes Polster für den arktischen Sommer vorhanden. Einige Wissenschaftler erwarten, dass in naher Zukunft das arktische Meereis im Sommer ganz abtauen könnte.
DER TAGESSPIEGEL 26.03.2017: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge … Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen … Eine Modellberechnung der Universität Washington ergab, dass das Eisklumpen in der Arktis in diesem Jahr ungewöhnlich gering ist. Das bedeutet, dass das Meereis in der Arktis wieder sehr anfällig ist für die sommerlichen Temperaturen und die Stürme in der Nordpolregion ist.

Das wirkliche Ergebnis der Natur zeigt, dass auch das Arktiseis nicht so einfach „Schwarz-Weiss“ „denkt“.

Was nicht linear funktioniert, funktioniert dann vielleicht parabolisch. Hauptsache, es führt zu „sicheren“ Vorhersagen. Anbei Bilder, was dabei herauskommt und wie „adaptiv“ sie geführt werden.

Bild 5 Meereisvolumen-Vorhersage. Vom Autor darüber kopiert der aktuelle Verlauf Meereisausdehnung Stand Sept. 2017.

Das kann nicht stimmen. Es gelang dieses Jahr doch erstmals einem großen Schiff, ohne Eisbrecher die Nordostpassage zu durchfahren

Als der Papst von seiner Südamerikareise zurückflog, wüteten gerade die Hurrikans in der Karibik und um Florida. Ein Anlass für den Papst, noch im Flugzeug in einem Interview seine spezielle Kenntnis über den Klimawandel zu äußern. Man könnte über sein Interview fast einen eigenen Artikel schreiben, anbei soll aber nur eine Angabe aufgegriffen werden.
KATHOLISCHES, 11. September 2017: Papst Franziskus über den Klimawandel: „Der Mensch ist ein Tier und dumm“
Fragesteller: … Gibt es eine moralische Verantwortung der politischen Führer, die eine Zusammenarbeit mit anderen Staaten zur Kontrolle der Treibhausgase ablehnen, weil sie bestreiten, daß dieser Wandel ein Werk des Menschen ist?
Papst Franziskus: … Wer das leugnet, muß zu den Wissenschaftlern gehen und sie fragen: Sie sprechen sehr klar und präzise.
Am vergangenen Tag, als die Nachricht jenes russischen Schiffes veröffentlicht wurde, das von Norwegen bis Japan, bis Taipei, fuhr mit einem Nordpol ohne Eis, veröffentlichte eine Universität eine andere Nachricht, die besagt: „Wir haben nur drei Jahre, um umzukehren, andernfalls werden die Folgen schrecklich sein.“

Nordpol ohne Eis“? Ein Papst muss wohl nicht alles so genau beschreiben und Al Gore als Klimapapst hat es ja für das Jahr 2013 vorhergesagt. Dass es bei Weitem noch nicht eingetroffen ist, muss ein Kirchenpapst wohl noch nicht wissen. Doch welche Fahrt eines russischen Schiffes hat der Papst gemeint, um sein „Wissen“ über den bereits erfolgten „Eintritt“ des AGW-Klimawandel zusätzlich zu belegen? Wohl die Fahrt, welche auch in der AWI-Pressemitteilung [2] erwähnt ist.
Es lohnt sich, Details darüber nachzusehen.
WIKIPEDIA: Nordostpassage
Die erste Gesamtdurchfahrt, mit einer
Überwinterung, gelang Adolf Erik Nordenskiöld 1878/79. Erst 53 Jahre später (1932) gelang dem Eisbrecher Alexander Sibirjakow die erste Durchfahrt ohne Überwinterung. Daraufhin richtete die Sowjetunion die Hauptverwaltung Nördlicher Seeweg ein. Im Sommer 1940 drang der deutsche Hilfskreuzer Komet mit Hilfe russischer Eisbrecher durch die Nordmeerpassage in sein Operationsgebiet im Pazifik vor. In den 1950er und 1960er Jahren wurde der Seeverkehr durch Anlage der Häfen Dikson, Tiksi, Pewek und Prowidenija systematisch ausgebaut und die Schifffahrtsperiode durch den Einsatz leistungsfähiger Eisbrecher verlängert.
Ein speziell dafür gebauter und nach
Christophe de Margerie benannter Flüssiggastanker durchfuhr im Sommer 2017 erstmals die Nordostpassage ohne Hilfe eines Eisbrechers.

BBC, 24 August 2017: First tanker crosses northern sea route without ice breaker
The Christophe de Margerie is the world’s first and, at present, only ice-breaking LNG carrier.
The ship is the first of a new fleet specially constructed to sail through ice all year round
The ship, which features a lightweight steel reinforced hull, is the largest commercial ship to receive Arc7 certification, which means it is capable of travelling through ice up to 2.1m thick.

Deutsche Schifffahrts-Zeitung, 10. Mai 2017: Eisbrechender LNG-Tanker in Hamburg
Bei dem mit 128.806 BRZ vermessenen Schiff (IMO 9737187) handelt es sich um den ersten eisbrechenden LNG-Tanker dieser Größenordnung. Der 299 Meter und 50 Meter breite Neubau verfügt über die höchste Eisklasse ARC-7 und kann mit seinem verstärkten Rumpf bis zu 2,1 Meter dicke Schollen brechen.

Ein kleines Randthema wirft der Verweis des Papstes auf das Alte Testament auf. Nachdem der Autor schon einmal über den anscheinend übersehenen Einfluss einer transzendentalen Macht zum Klima geschrieben hat,
EIKE 22.07.2016 : [4] Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?
wollte er natürlich wissen, auf welchen Aktions-Hintergrund sich die vom Papst angegebene Psalmenstelle im Alten Testament bezieht und ob damit wirklich eine Verbindung zur Klimakritik herstellbar ist.

Papst Franziskus: Mir fällt ein Satz aus dem Alten Testament ein, ich glaube in den Psalmen: Der Mensch ist dumm, ein Dickkopf, der nicht sieht. Das einzige Tier der Schöpfung, das den Fuß auf das gleiche Loch stellt, ist der Mensch. Das Pferd u.a. tun das nicht.
Der Autor hat in der Bibel bisher noch nirgendwo eine Textstelle finden können, welche dem Mensch das Lenken des Klimas oder Wetters auch nur im Ansatz zugesteht. Als AGW-klimawandelkritisch eingestellte Person wäre es jedoch schon wichtig, eventuelle Prophetensprüche dazu zu kennen, auch wenn das Alte Testament für Christen nicht mehr gilt (sofern die Kirche auf die durchgängig grausamen, allen heutigen Humanregeln widersprechenden Inhalte angesprochen wird), jedoch als Gottes Wort notwendig bleibt, weil es sonst keinen Jesus geben könnte.

Er hat sich die Mühe gemacht, in den 150 Psalmen nachzusehen. Er fand jedoch nirgendwo eine Textstelle, auf die das Papstzitat zutreffen könnte. Aber vielleicht kennt sich jemand im Blog besser aus und kann helfen.

Quellen

[1] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
[2] AWI 14. September 2017, Gemeinsame Presseerklärung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Universität Bremen und des Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg: Meereisminimum 2017 Arktisches Meereis erneut stark abgeschmolzen

[3] Wissenschaftsrat Drs. 10330-10 Lübeck 12 11 2010

[4] EIKE 22.07.2016 : Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?