Rundbrief der GWPF vom 23. November 2017

Hurra! UK-Regierung sperrt weitere grüne Energie

Die Entwickler von Projekten erneuerbarer Energie haben einen massiven Schlag hinnehmen müssen, hat doch die Regierung verkündet, dass es bis zum Jahr 2025 keine neuen Subventionen geben wird.


Das Budget für Unterstützer-Programme wie Contracts for Difference (CfD) wurde bislang durch das Levy Control Framework (LCF) [etwa: Rahmen zur Kontrolle von Abgaben] gesteuert. Seit der Ankündigung im Frühjahrs-Budget, LCF zu beenden, hat die Regierung ihre neue Control for Low Carbon Levies entwickelt. [levy = Abgabe, finanzielle Belastung]. Damit sollen die grünen Steuern oder Abgaben begrenzt werden, welche auf die Stromrechnungen der Verbraucher aufgeschlagen werden.

Ein zusammen mit dem Budget vom Schatzministerium veröffentlichtes Dokument zeigt, dass die Regierung die Energiekosten „so niedrig wie möglich“ halten will. Daher werde es keine neuen Low-Carbon-Stromabgaben geben, bis „die Belastung durch diese Kosten zurückgeht“.

Weiter heißt es darin: „Bis die Gesamt-Belastung dieser Kosten Vorhersagen zufolge real und nachhaltig sinkt, wird Control keine neuen Low-Carbon-Stromabgaben zulassen. Auf der Grundlage derzeitiger Vorhersagen werden damit neue Abgaben bis zum Jahr 2025 ausgeschlossen“.

Full story

———————————————-

Grüne Abgaben ,werden Stromrechnungen um 200 Pfund steigen lassen‘

 

British Gas behauptet, dass die Kosten zur Finanzierung einer Hinwendung zu grüner Energie und die Unterstützung armer Familien die Stromrechnungen von Jedermann im nächsten Jahr um 200 Pfund werden steigen lassen. Dem Unternehmen zufolge wäre es fairer, die Kosten nicht auf die Stromrechnungen aufzuschlagen, sondern auf die Einkommenssteuer oder andere Steuerarten.

Die Vorschläge wurden von Ian Conn umrissen, dem Chef des Mutterkonzerns Centrica, der fundamentale Änderungen hinsichtlich der Rechnungen fordert.

Die Kosten der Regierungsprogramme, um die Abkehr von fossilen Treibstoffen zu stützen und die Energieeffizienz der Haushalte deutlich zu erhöhen, sind hoch umstritten. Da gibt es die Kosten der Subventionen zur Errichtung neuer Windparks und Solarinstallationen, wobei für den davon erzeugten Strom hohe Preise garantiert werden.

Gleichzeitig müssen Energiefirmen einen Mindest-Preis bezahlen für Energie erzeugt durch Kohle und Gas, selbst wenn die Marktpreise niedriger sind…

Mr. Conn verlangte, die Kosten der Hinwendung zu erneuerbarer Energie durch allgemeine Besteuerung aufzubringen und durch Aufschläge auf die Stromrechnungen, was seinen Worten zufolge die Armen am härtesten treffen würde.

Anfang dieses Jahres zeigte Centrica, dass der Preis für dieses Jahr 145 Pfund war. Und jetzt behauptet Mr. Conn, dass es im nächsten Jahr 200 Pfund pro Rechnung für jeden Haushalt sein werden. Centrica führt an, dass diese Kosten nicht den Rechnungen, sondern den allgemeinen Steuern hinzugefügt werden sollten. Steuern berücksichtigen die unterschiedliche Zahlungsfähigkeit der Menschen.

Full Story

Übersetzt von Chris Frey EIKE
Und hier der oben angekündigte Beitrag von Benny Peiser. Er schreibt in einem Kommentar aus der Sicht von Großbritannien:

Deutschlands Klimakirche ohne Dach

Benny Peiser
Deutschland steht vor einer politischen Krise, nachdem am späten Sonntagabend die Vier-Parteien-Sondierungsgespräche zur Bildung einer so genannten Jamaika-Koalition gescheitert sind. Zum ersten Mal seit der Weimarer Republik (1919-1933) sind deutsche Parteien mit Parlamentsmehrheit nicht bereit, eine Regierung zu bilden. Niemand weiß, was als nächstes passiert oder wie diese sich vertiefende Krise in absehbarer Zeit gelöst werden kann.

Die Unfähigkeit, sich auf strittige klima- und energiepolitische Fragen zu einigen, sowie die Meinungsverschiedenheiten über Migration haben das Ende der Verhandlungen bewirkt. Bemerkenswert: Die gescheiterte und zunehmend unpopuläre deutsche Klimapolitik steht im Mittelpunkt der Krise. Sie signalisiert auch den Zusammenbruch des jahrzehntealten deutschen Klimakonsenses.
Während die Grünen die sofortige Abschaltung von 10 bis 20 der 180 deutschen Kohlekraftwerke forderten, hielt die FDP an ihrem Versprechen fest, die Energiewende radikal zu reformieren und die Subventionen für erneuerbare Energien abzuschaffen.
Experten des Bundeswirtschaftsministeriums hatten die Teilnehmer der Sondierungsgespräche gewarnt, Deutschland werde seine rechtsverbindlichen Klimaziele für 2020 meilenweit verfehlen und das Erreichen seiner Ziele für 2030 den wirtschaftlichen Wohlstand des Landes gefährden. Das Ministerium warnte auch davor, dass jeder Versuch, eine radikale Reduktion der CO2-Emissionen zu erzwingen, „bis 2020 nur durch eine partielle Deindustrialisierung Deutschlands möglich wäre“.
Klimageschäft wie gewohnt ist für die Liberalen keine Option mehr. Die Partei befürchtet, dass ein schneller Ausstieg aus der Kohleverstromung, wie von den Grünen gefordert, gravierende soziale, wirtschaftliche und politische Problemen verursacht. Eine Fortsetzung der radikalen Klimapolitik würde die großen deutschen Kohleregionen treffen, nicht zuletzt in Ostdeutschland, wo die rechtsgerichtete Protestpartei Alternative für Deutschland (AfD) bei den Bundestagswahlen im September deutliche Unterstützung erhalten hatte.

Klimareligion und die grüne Zentralplanung

Die AfD gewann bei der Bundestagswahl im September knapp 13 Prozent der Stimmen und bildet mit über 90 Abgeordneten die drittgrößte Fraktion im Bundestag. Der Erfolg der Partei hat die politische Landschaft in Deutschland verändert und das Ende des grünen Konsenses zwischen den Mainstream-Parteien eingeläutet. Um die Energiekosten niedrig zu halten, setzt sich die AfD für die weitere Nutzung von Kern- und Kohlekraftwerken ein. Sie stellt sich gegen die Energiewende: „Energie muss bezahlbar bleiben und darf kein Luxusgut sein“, und versprach in ihrem Manifest die Abschaffung des Erneuerbare-Energien-Gesetzes (EEG) und aller Ökostrom-Subventionen, da Subventionen für erneuerbare Energien nur wohlhabenden Familien und grünen Unternehmen zugute kommen.
Ein kürzlich erschienener Leitartikel des „Wall Street Journal“ kommt zu dem Schluss: „Kein Wunder, dass die Wähler in Aufruhr sind. Die rechtsgerichtete Alternative für Deutschland (AfD) gewann überraschend 13 Prozent Stimmenanteil zum Teil aufgrund des Versprechens, die Energiewende sofort zu beenden. Eine neue Studie des RWI Leibniz-Instituts für Wirtschaftsforschung kommt zu dem Ergebnis, dass 61 Prozent der Deutschen nicht einmal einen Eurocent mehr pro Kilowattstunde Strom für die Finanzierung von mehr erneuerbaren Energien ausgeben wollen“.
Der dramatische Erfolg der AfD führt dazu, dass erstmals eine Partei im Bundestag vertreten ist, die sich den Plänen Deutschlands zur Reduzierung der CO2-Emissionen durch den Umstieg auf erneuerbare Energien widersetzt. Die Skepsis gegenüber Klima- und Ökostrom-Fragen hat in der deutschen Politik Schockwellen ausgelöst. Die etablierten Parteien befürchten, dass sie es sich nicht mehr leisten können, Forderungen der Grünen zu erfüllen, ohne weitere Unterstützung ihrer traditionellen Wähler zu verlieren.
Ohne die Entwicklung einer neuen, pragmatischen Politik und die konsequente Verteidigung einer billigen Energiestrategie angesichts einer rasch verblassenden (und alternden) grünen Bewegung wird sich Deutschland wohl kaum von den grünen Fesseln befreien, die den technologischen und wirtschaftlichen Fortschritt behindern. Ein großer Teil des grünen Ballastes, der Deutschland zurückhält, muss über Bord geworfen werden, wenn das Land politische Stabilität und wirtschaftlichen Pragmatismus zurückgewinnen will.
So wie die sozialistische Zentralplanung Ostdeutschlands kläglich scheiterte, bevor sie gestürzt und durch eine offene Gesellschaft auf der Grundlage von Freiheit und freien Märkten ersetzt wurde, müssen die Klimareligion und die grüne Zentralplanung Deutschlands verworfen werden, damit das Land zu Energierealismus und ökonomischer Vernunft zurückkehren kann.
Achse-Autor Dr. Benny Peiser ist Direktor der Global Warming Policy Foundation (GWPF), einer in London ansässigen, überparteilichen Denkfabrik für Klima- und Energiepolitik. 
Sein Kommentar erschien zuerst in englischer Sprache.
Übersetzung von achgut.com




Winter 2017/18 – lässt er Milde walten?

1. Die Bauernregeln und die „Milde Oktober- kalte Winterregel“
Der sehr milde Oktober 2017 ruft die Regel „Ist Oktober mild und fein (trocken- sonnig), wird ein harter Winter sein“ auf den Plan. Korrekter formuliert, lautet die Regel folgendermaßen: „Ist der Oktober in Deutschland wesentlich (mehr als 1,5 Kelvin) zu warm und gleichzeitig merklich zu trocken, beides bezogen auf den Langjährigen Mittelwert, so wird der Folgewinter mit etwa 80%iger Wahrscheinlichkeit zu kalt ausfallen.“ Und 2017 scheidet diese Regel sowieso aus, weil der milde Oktober insgesamt deutlich zu niederschlagsreich ausfiel. Die Oktoberkombination „deutlich zu mild (mind. 1 K) und mehr oder weniger deutlich zu nass“ findet sich beim DWD- Mittel seit 1881 nur sechsmal (1923, 1942, 1966, 1989, 2013 und 2014). Von den Folgewintern war nur der von 1923/24 merklich zu kalt, alle übrigen um >1 bis teils um 3 K deutlich zu mild. Bei dieser geringen Zahl der Vergleichsfälle ist aber Vorsicht geboten.
Wenn im Herbst viel Spinnen kriechen, sie einen harten Winter riechen.“ Im Spätsommer/Herbst 2017 gab es ungewöhnlich viele Spinnen; doch lässt sich daraus nicht auf die Winterstrenge schließen. Aber auf etwas Anderes- soll es nach den rot- grünen Mainstream- Medien nicht immer weniger Insekten in Deutschland geben? (die angeblichen Schuldigen: Eine „böse“ intensive Landwirtschaft und der Klimawandel). Doch alle Spinnenarten ernähren sich räuberisch von Insekten- es muss also sehr viele Insekten gegeben haben! „Ist Martini (10./11.11.) trüb und feucht, wird gewiss der Winter leicht.“ Um den 10.11.2017 herrschte trübes, feuchtes, normal temperiertes Wetter. Wegen der Kalenderreform von 1583 (10 Tage Verschiebung aller Lostage) ist auch die Witterung um den 20.11. beachtenswert. „Elisabeth (19.11., diesmal normal temperiert, windig und wechselhaft) sagt an, was der Winter für ein Mann“. „Wie’s Wetter an Kathrein (25.11., diesmal fast temperaturnormal und verregnet), so wird es auch im Januar sein.“ Solche Regeln treffen keinesfalls immer zu. Insgesamt deutet die Mehrzahl der Bauernregeln auf einen sehr milden bis höchstens normalen Winter hin.
2. La Nina- was bedeutet das?
Momentan herrschen im tropischen Südost- Pazifik einschließlich der Südamerikanischen Küste deutlich zu niedrige Meeresoberflächentemperaturen- ein klassischer „La Nina“. Dieser soll sich im Winter fortsetzen. Direkte Auswirkungen auf die Winterwitterung in Deutschland lassen sich daraus aber kaum ableiten; La- Nina- Winter können hierzulande mild (2013/14, 2007/08,1999/2000,1998/99, 1988/89,1974/75) oder zu kalt (1995/96,1984/85,1962/63) ausfallen. „La Nina“ hat aber eine andere Auswirkung- auf die globalen Durchschnittstemperaturen. Der seit etwa 20 Jahren zu beobachtende Hiatus der „globalen Erwärmung“ dürfte sich dadurch manifestieren.
3. Nachlassende Sonnenaktivität- Menetekel der Abkühlung
Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2017 nahm die Fleckenzahl tendenziell weiter ab; oftmals war die Sonne schon fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte.
Dem noch intensiven 23. folgte der schwache 24. SCHWABE-Zyklus. Dieser ist mit maximal nur gut 100 Flecken einer der schwächsten Sonnenfleckenzyklen seit 200 Jahren:

Nach dem absoluten Zyklus-Maximum (Februar 2014) sank die Fleckenzahl. Der Winter 2017/18 ist der vierte nach dem Maximum des SCHWABE-Zyklus. Die 23 Vergleichswinter seit 1760/61 trafen mit -0,2°C genau das langjährige Wintermittel dieses 257ig- jährigen Zeitraumes, wobei aber auffällt, dass die letzten sechs, beginnend mit 1950/51, allesamt zu mild waren. Sehr kalte Winter treten ohnehin bevorzugt zum Minimum des Schwabe-Zyklus oder 1 bis 2 Jahre nach diesem auf; letztmalig 2009/10, davor 1995/96 und 1996/97 sowie 1986/87. Hier zeigt sich schon eine gewisse Verzögerung, mit der die Wintertemperaturen der solaren Aktivität folgen. Eine bessere Aussagefähigkeit hat der solare Ap- Index, welcher die magnetische Wirkung der solaren Teilchenstrahlung beschreibt. Er hatte sein Minimum zwischen 2008 und 2010, was die damaligen Kälte- Winter mit erklären könnte. Gegenwärtig ist aber der Ap- Index, im Gegensatz zur Anzahl der Sonnenflecken, noch mäßig hoch, was für einen eher normalen Winter spricht:

In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionallagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst weit nach 2015 deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 20 Jahren kaum noch Erwärmung in Deutschland; in Zentralengland kühlte es sich gar leicht ab:

Bei globaler Betrachtungsweise (die „Erdmitteltemperatur“ ist strenggenommen ein wertloses Kunstgebilde) fehlt, trotz des starken El Ninos 2015/16, nun schon seit gut 20 Jahren eine signifikante „globale“ Erwärmung. Insgesamt lässt die geringe Sonnenaktivität 2017 einen eher normalen bis zu kalten Winter erwarten.
4. Die Zirkulationsverhältnisse
Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Für längerfristige Vorhersagen muss man die Zirkulationsverhältnisse vorhersehen können, was kaum möglich ist. Im Herbst 2017 war die Zonalzirkulation zeitweise kräftig entwickelt; so Mitte September und in der ersten sowie letzten Oktoberdekade, was auf einen eher milden Winter hindeutet; ähnlich wie 2013/14, 1988/89 oder 1989/90. Ob die seit der Jahrtausendwende zu beobachtende leichte Abnahme der Westlagenhäufigkeit in diesem Jahr eine Rolle spielt, ist mehr als fraglich. Wegen der sich aktuell vermutlich verstärkenden Ostwind-Phase der QBO (Erklärung siehe Punkt 7) liegt eine verstärkte Meridionalisierung mit Kälte im Laufe des Hochwinters aber noch im Bereich des Möglichen. Einhergehend mit der lebhaften Zonalzirkulation gab es schwere Herbststürme („XAVIER“ Anfang und „HERWART“ Ende Oktober). Die Zirkulationsverhältnisse weisen überwiegend auf einen eher milden Winter hin.
5. Die mittelfristigen Modelle
Die verbesserte Kurzfrist-Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble- Modelle, bei denen man die Ergebnisse mehrerer Modell- Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen des Temperaturniveaus für etwa eine Woche im Voraus und vage für bis zu 15 Tagen.
Die Ensemble-Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.11. für den 10.12.2017 zeigt ein Tief über Skandinavien, flankiert von hohem Luftdruck über dem Atlantik und Osteuropa (Quelle NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es zumindest im Bergland oberhalb 600 bis 800 Meter winterlich; im Tiefland wäre nasser Schnee oder Regen bei leichten Plusgraden möglich:

Es deutet sich, auch nach den hier nicht gezeigten Einzel- Modell- Läufen, für die erste Dezemberdekade normal temperiertes, nasskaltes Wetter an; im Bergland oberhalb etwa 600 bis 800m könnte gar Dauerfrost mit guten Wintersportbedingungen herrschen; im Tiefland zumindest zeit- und gebietsweise nasser Schnee liegen; zumindest gelegentliche Nachtfröste mit Glättegefahr sind hier zu erwarten; tagsüber aber meist mehr oder weniger deutliche Plusgrade; vielleicht kurzzeitig im Nordosten auch mal schwacher Dauerfrost.
6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland
Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten 30 Jahren folgendermaßen:

Trotz der sehr milden Winter 2013/14 und 2015/16 und kontinuierlich steigender CO2- Konzentration (obere, grüne Linie) fiel das Wintermittel seit 30 Jahren, wenngleich nicht signifikant, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Doch die DWD-Daten sind nicht wärmeinselbereinigt. Einen deutlicher fallenden Trend zeigt die wärmeinselarme Station Amtsberg/Erzgebirge:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine langsam beginnende Abkühlung hin.
7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO und der Polarwirbel
Der NAO- Index ist ein Maß für die Intensität der Westströmung über dem Ostatlantik im Vergleich zum Langjährigen Mittel. Positive NAO- Werte bedeuten häufigere und intensivere, im Winter eher milde Westwetterlagen. Bei negativen NAO- Werten schwächt sich die Intensität der Zonalströmung ab, bei stark negativen Werten kann sie gar in eine Ostströmung umschlagen oder meridional verlaufen. Die NAO schwankte seit Sommer 2017 häufig zwischen positiven und negativen Werten; zum Schluss war der Index negativ (Quelle http://www.cpc.ncep.noaa.gov/products/precip/CWlink/pna/nao.mrf.obs.gif ):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) beendet gegenwärtig ihre Warmphase. Ein kompletter AMO- Zyklus dauerte seit Beginn regelmäßiger Messungen immer etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase wahrscheinlich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/ . Die folgende Abbildung beginnt mit dem 10-jährigen Gleitmittel ab 1880/81 unter Einbeziehung der Werte ab 1871/72. Die AMO (grün) verhält sich fast spiegelbildlich zu NAO (obere schwarze Kurve), der Westwetterlagenhäufigkeit (unterste, violette Kurve) und den Wintertemperaturen in Deutschland. Die Gleitmittel wurden dann nochmals 15- jährig geglättet (fette Linien).

AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die sogenannte QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) verhält sich momentan ungewöhnlich uneinheitlich (Westwindphase in der unteren Stratosphäre und Ostwindphase in der oberen Stratosphäre). Nur wenn die Westwind- Phase in der unteren Stratosphäre enden sollte, könnte das Meridionale Lagen und damit einen Kaltwinter begünstigen. In diesem Zusammenhang lohnt noch ein Blick auf die mögliche Entwicklung des Polarwirbels. Ein ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre) ist kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 10. Dezember wird ein Polarwirbel vorhergesagt, der merklich gestört und über Grönland/Island am kältesten ist, was alle Möglichkeiten für milde oder kalte Witterungsabschnitte noch offen lässt:

NAO, QBO, AMO und das Verhalten des Polarwirbels deuten auf einen eher normalen bis milden Winter hin.
8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 4,8 Millionen Km² gab es im Septembermittel 2017 eine etwas größere Eisfläche, als in den beiden Vorjahren, und deutlich mehr zum bisherigen Negativ- Rekordmittel von 3,57 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO- Warmphasen wird mehr Wärme in die Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO- Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von mehr als 35 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis- Meereises:

Ähnlich wie in den 1930er Jahren, als während der damaligen AMO- Warmphase ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland- Gletscher herrschte. Näheres dazu unter http://www.eike-klima-energie.eu/climategate-anzeige/fotos-aus-den-dreissiger-jahren-groenland-gletscher-haben-sich-damals-schneller-zurueck-gezogen-als-heute/ . Die These „weniger Arktiseis – mehr Winterkälte in Deutschland“ ist unhaltbar; tatsächlich fehlt jeglicher Zusammenhang:

Auch bei Betrachtung anderer Bezugszeiträume besteht keine Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen: http://ocean.dmi.dk/arctic/icecover.uk.php . Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres bei http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html . Im Herbst 2017 war ein stärkeres Eiswachstum als in den Vorjahren zu beobachten, was den Polarwirbel stärken und milde Westlagen begünstigen könnte. Insgesamt hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine eindeutigen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14,15 und 16 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 7 zu mild ausfielen; letztmalig der von 2016/17, trotz des kalten Januars. Eine große Überraschung bot dieser Analyseteil trotzdem. Im Herbst und Winter wächst nämlich die mit Schnee bedeckte Fläche Eurasiens; nur im Frühling und Sommer nimmt sie ab. Sollte es Dank des „Klimawandels“ nicht immer weniger Schneeflächen in allen Jahreszeiten geben?? Und die wahre Ursache für die Abnahme im Frühjahr/Sommer ist nicht das CO2, sondern vermutlich mehr Sonnenschein (siehe folgende Abbildung):

9. Analogfälle (ähnliche Witterung wie 2017)
Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs untersucht. Betrachtet man alle mehr oder weniger zu kalten Winter der vergangenen 4 Jahrzehnte inklusive solcher, die bei milder Gesamtwitterung mindestens eine mehrwöchige Kälteperiode aufwiesen, so gingen diesen Wintern bis auf die Ausnahme von 2011 Herbste voraus, die schon mindestens einen auffälligen Kälteeinbruch hatten. Dabei war nur selten der Herbst insgesamt zu kalt, aber er wies dann mindestens einen zu kalten Monat oder wenigstens eine markante Kaltphase auf (November 1978, 1980, 1981, 1984, 1985, September 1986, September 1990, November 1993, November 1995, September 1996, September/Oktober 2002, November 2005, September 2008, Oktober 2009, November 2010, Oktober 2012, 2015, Oktober/November 2016). Schneite es bereits im Oktober stellenweise bis ins Flachland (2002, 2009, 2012 und 2015), so war in den ersten 3 Fällen der gesamte Winter zu kalt; 2015/16 kam es nur im Januar besonders in Nordostdeutschland zu längeren, winterlichen Phasen. Vor den meisten fast durchgängig milden Wintern (1973/74,1974/75,1987/88,1988/89,1989/90, 2006/07, 2007/08, 2013/14, 2014/15) waren die Herbste entweder rau, gemäßigt oder extrem mild; markante Kälteeinbrüche fehlten jedoch so wie auch 2017 oder waren nur ganz kurz (November 1988 und 1989). Das Witterungsverhalten im September/Oktober 2017 (September etwas zu kalt, Oktober zu feucht und viel zu mild) ähnelte, freilich nur sehr grob, dem der Jahre 1923, 66 und 2013, wonach der Winter 1923/24 zu kalt und die beiden letzten zu mild waren. Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckabweichung vom Langjährigen Mittel über Europa (Quelle: langfristwetter.com) sieht für die kommenden Wintermonate so aus:



Im Dezember 2017 (oberes Bild) positive Luftdruck-Anomalie in hpa auf Meeresspiegelniveau über dem Nordatlantik und etwas zu tiefer Luftdruck über Skandinavien. Das hätte normale Dezembertemperaturen in Mitteleuropa zur Folge; mit Schneefällen besonders in den Mittelgebirgen. Im Januar 2018 (Mitte) leicht erhöhter Luftdruck über Nordosteuropa- zumindest einzelne Kältewellen aus Nordost wären bei insgesamt etwas zu kaltem Januar denkbar. Im Februar deutlich zu tiefer Luftdruck bei Island mit sehr mildem Westwetter bei uns. Die Vergleichsjahre mit ähnlicher Vorwitterung, aus der sich die berechnete Druckverteilung ergab, waren 1949, 1967, 1970, 1973, 1983, 1984, 1990, 1994, 1996, 1999, 2001, 2005 und 2013. Es finden sich danach 6 zu milde (am deutlichsten 2013/14), 4 fast temperaturnormale und 3 zu kalte Winter; am markantesten 1984/85. Damit deutet sich bei Mittelung eine Tendenz zu einem eher normalen Winter an. Auch hier ist die geringe Zahl der Vergleichsfälle problematisch; Näheres zu der Methode unter http://www.langfristwetter.com/langfristprognose-europa.html . Zu warmen Sommern (auch der Sommer 2017 war trotz seiner sehr wechselhaften, nassen Witterung deutlich zu warm!) folgen meist milde statt kalten Wintern (positiver Zusammenhang). Für seriöse Vorhersagen ist diese Beziehung freilich auch viel zu schwach. Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang. Schon der August liefert aber manchmal erste Hinweise. Er wies 2017 nach der Objektiven Wetterlagen- Klassifikation des DWD (seit 1979 verfügbar) mit 30 Tagen auffallend viele mit Westanteil und nach der HESS/BREZOWSKY- Klassifizierung mit 15 Tagen auffallend viele mit Südanteil auf. Ähnlichen Augusten folgten in der Vergangenheit zu 50 bis 60% milde und nur zu 10 bis 25% kalte Winter; die restlichen waren normal. Und sogar der dem Winter vorausgehende März (2017 extrem mild) lässt einen sehr kalten Winter unwahrscheinlich werden. In den 36 Fällen seit 1881, bei denen der Vor- März im Deutschlandmittel mindestens 5°C erreichte, also merklich zu mild war, verlief der folgende Winter in 17 Fällen zu mild, in 13 normal und nur in 6 Fällen etwas zu kalt. Ähnliches gilt für den Vor- Mai. Insgesamt deutet sich nach den Analogfällen also eine erhöhte Wahrscheinlichkeit für einen normalen bis zu milden Winter an.
10. Die Hurrikan- Aktivität (Nordatlantik) und Zyklonen- Aktivität (nördlicher Indik)
Mit gewissen Abstrichen (mangelnde Beobachtungsmöglichkeiten vor Einführung der Satellitentechnik) ist die jährliche Anzahl der Tropischen Wirbelstürme im Nordatlantik (Hurrikane) und der Zyklone (nördlicher Indischer Ozean) etwa bis zur Mitte des 19. Jahrhunderts bekannt. Die verheerenden, meist wenige Tage bis selten länger als zwei Wochen existierenden Hurrikane gelangen nie nach Mitteleuropa. Aber sie beeinflussen unsere Witterung. Sie schwächen bei bestimmten Zugbahnen das Azorenhoch oder kommen bei Einbeziehung in die Westdrift als normale Tiefs nach Europa, wo sie im Spätsommer/Frühherbst mitunter einen Witterungsumschwung einleiten. Auch die Anzahl der im nördlichen Indischen Ozean jährlich vorkommenden Wirbelstürme (Zyklone) könnte einen gewissen Einfluss auf unsere Winterwitterung haben; es gibt von 1890 bis 2014 eine leicht negative Korrelation (tendenziell kältere Winter, wenn dort viele Zyklone auftraten). Im Mittel von 1851 bis 2014 sind gut 5 Hurrikane pro Jahr (die Saison beginnt meist erst zwischen Mai und Juli, doch 2016 gab es schon im Januar einen Hurrikan, und endet spätestens Anfang Dezember) aufgetreten. Erreichte ihre Zahl mindestens 10 (1870, 1878, 1886, 1887, 1893, 1916, 1933, 1950, 1969, 1995, 1998, 2005, 2012), so waren von den 13 Folgewintern 11 zu kalt, nur 2 (1998/99 und 1950/51) zu mild. Bei fast all diesen Fällen brachte allerdings schon der Spätherbst markante Kältewellen; selbst vor den beiden dann milden Wintern waren sie zu beobachten; besonders markant 1998. In diesem Jahr gab es bislang 10 Hurrikane und damit deutlich zu viele, was eher für einen kalten Winter spricht. Im Indischen Ozean blieb die Zyklonen- Aktivität 2017 jedoch unterdurchschnittlich, was auf einen eher milden Winter hindeutet. Die Wirbelsturm- Aktivität liefert diesmal also keine eindeutigen Hinweise auf den Charakter des Winters in Deutschland.
11. Die Langfrist- Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:
UKMO (Großbritannien): Stand 11.11.2017 Winter (D, J, F) mit leicht erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist ebenfalls eine leicht erhöhte Wahrscheinlichkeiten auf; während ein zu kalter Winter höchstens zu 20% wahrscheinlich ist . Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob
Meteo Schweiz Stand Nov. 2017: Leicht erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter nur zu etwas mehr als 20% wahrscheinlich); normaler zu knapp 30%. Die „doppelten T“ sind die Fehlerbalken:

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2017: Alle drei Wintermonate zu mild.
IRI (folgende Abbildung), Vorhersage vom Nov. 2017: Keine Aussagen für Deutschland und weite Teile West- und Mitteleuropas; zu mild in Nord- und Osteuropa.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1981 bis 2014 (Stand Nov. 2017):

NASA (US- Weltraumbehörde) Karte vom November 2017: Winter in Mitteleuropa etwa 2 bis 3 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

 
CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 16. bis 25.11. 2017): Alle 3 Wintermonate um 1 bis 2 K zu mild. Dezember (links) Januar (rechts) Februar (unten); damit Winter insgesamt sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser experimentellen, nicht verlässlichen Langfristprognosen deutet einen eher zu milden Winter an.
Fazit: Eindeutige, verlässliche Anzeichen für einen durchgehend kalten Winter fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis extrem zu milden Winters. Momentan kündigen sich keine markanten Kälteeinbrüche im Frühwinter an; aber nasskaltes Wetter; im Bergland oberhalb von etwa 500 Metern könnte im Dezember häufiger, im Tiefland gelegentlich Schnee liegen. Insgesamt fällt der Winter 2017/18 nach momentanem Stand also normal bis extrem zu mild aus und wird im Deutschland- Mittel auf +0,5 bis +3,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise gute Wintersportmöglichkeiten. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis deutlich zu mild). Für Jan/Feb. 2018 lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein zu milder Hochwinter deutlich wahrscheinlicher, als ein zu kalter. Wegen eines möglichen Wechsels zur Ostwindphase in der unteren Stratosphäre (QBO) sind aber winterliche Phasen oder wenigstens ein einzelner, kalter bis sehr kalter Wintermonat noch nicht völlig ausgeschlossen. Sollte allerdings der Dezember tatsächlich zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2018 noch weiter.
Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 20% Analogfälle und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.
Aktualisierung voraussichtlich Ende Dezember.
Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.11. 2017




Smart Grids nehmen 35 Prozent mehr Ökostrom auf

Wer in Smart Grid keinen Sinn sieht, zeigt nur keine Geduld, auf den Fortschritt zu warten

Ein „intelligenter“ Zähler soll jedoch enorme Vorteile bieten. Nur für wen, muss sich noch herausstellen.
Zum Beispiel ist er ein Energie-weg-Fresser. Und er frisst vorwiegend nachhaltige Energie, welche bekanntermaßen mangels Rechnungslegung von Wind und Sonne nichts kostet und immer öfter im Überfluss durch die Leitungen fließt, sofern diese nicht gerade durch veralteten, dreckigen und langsam fließenden Strom verstopft sind.

Smart Grids lassen überschüssigen GREEN-Strom im Ortsnetz

In der Vor-EEG-Zeit war Strom zwar billig, galt aber trotzdem als zu wertvoll, um ihn als Heizmaterial zu missbrauchen und selbst die elektrischen Nachtspeicheröfen wurden deshalb aussortiert. Doch heutzutage fließt EEG-Strom wie im Paradies Wein und Honig, so viel, dass man den Überfluss – so man nicht Smart Grid hätte – aus dem Mittelspannungsnetz nutzlos abtransportieren müsste.
Im Artikel: EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze,
wurde das Problem der Spannungsanhebung in Netzen durch die unkontrollierte EEG-Vorrangeinspeisung erklärt. Es führt dazu, dass die Versorger für viel Geld ihre Netze mit „intelligenten“ Ortsnetz-Trafos umrüsten müssen (was die Hersteller freut). Wobei sich die „Intelligenz“ darauf beschränkt, dass man innerhalb eines kleinen Bereiches durch einen steuerbaren Stufenschalter das Übersetzungsverhältnis verstellen kann.
Zwar ist es teuer (weshalb es in den Lokalzeitungen von Versorgern oft als „Zukunftsertüchtigung“ vermittelt wird), bringt aber wenig, schon gar nicht eine wirkliche Problemlösung. Dafür müssen ganz andere Kaliber an „Netzintelligenz“ her. Und diese – zusätzlich erforderliche Intelligenz – erbringen die Smart Grid-Zähler.
Wie bekannt, ist „die Intelligenz“ in Bayern besonders groß und so betrieben die bayerischen Lechwerke ein Pilotprojekt in Wertachau zur Belegung der enormen Vorteile intelligenter Smart-Grid Zähler(*innen).
EnerIgate messenger 09.08.2017: [1] Smart Grids nehmen 35 Prozent mehr Ökostrom auf
… Im Ergebnis konnte schließlich 35 Prozent mehr lokaler Ökostrom ins Netz fließen. Insbesondere an sonnigen Tagen sorgte der Smart Operator dafür, dass sonst überschüssiger Strom im Ortsnetz blieb und nicht über das regionale Mittelspannungsnetz abtransportiert werden musste …

Dort „vernichten“ ihn zusätzliche Verbraucher

Das „fließen lokalen Ökostromes im Ortsnetz“ gelingt, indem man ihn dort ganz einfach gezielt „vernichtet“. An Intelligenz benötigt man dazu viele Strom verbrauchende Geräte, welche sich nicht nach der Intelligenz des Besitzers ausrichten, sondern sich bedingungslos den Zwängen der EEG-Einspeisung unterwerfen. Leider sind dies oft teure Neuanschaffungen:
[1] Des Weiteren konnte bis zu 20 Prozent der Last in den Haushalten durch die intelligenten Geräte verschoben werden. Das größte Potenzial boten dabei die Batterie- und Wärmespeicher sowie E-Auto-Ladeboxen …,
und weniger die preiswerten (und vorhandenen) Massegeräte
[1] … Im Bereich der Haushaltsgeräte, der sogenannten Weißen Ware, sei das Lastverschiebungspotenzial laut den Projektergebnissen hingegen gering.

Ein „Smart Operator“ lenkt die Sklaven der Überschussvernichtung

Eindeutig sind es nicht die angeblich intelligenten Smart Grid, welche den Verbrauchsfluss lenken, sondern eine Zentrale.
[1] Der Smart Operator verfügt über einen sich selbst optimierenden Algorithmus, der vor Ort die verschiedenen Bausteine des Ortsnetzes so steuert, dass das Netz optimal genutzt wird. Einflussfaktoren für den Steueralgorithmus waren in dem Projekt etwa Lastprofile der Haushalte sowie Wetterprognosen und zu erwartende Einspeisemengen aus Erneuerbarenanlagen. Auf Basis dieser Werte stimmte der Smart Operator Lasten, Aufnahmefähigkeit und Speichermöglichkeiten im Stromnetz aufeinander ab. So konnten erfolgreich erzeugungsbedingte Spannungsspitzen im Netz geglättet und die Aufnahmekapazität für erneuerbare Energien erhöht werden.

Man ahnt, für wen sich die neue Intelligenz auf jeden Fall lohnt

[1] An dem Projekt in Wertachau nahmen 115 der dortigen 125 Haushalte teil. Insgesamt tauschten die Lechwerke 160 herkömmliche Zähler durch Smart Meter aus. In 23 Haushalten kamen zudem intelligente Haushaltsgeräte zum Einsatz, die in das Smart Grid integriert wurden. Dabei handelte es sich um Wasch- und Geschirrspüler, Wäschetrockner, Batteriespeicher, Wärmepumpen und Ladeboxen für Elektroautos. Die intelligenten Geräte kommunizierten dabei untereinander über ein eigens aufgebautes Glasfasernetz. Zudem speisten 23 Fotovoltaikanlagen in das intelligente Netz ein. Ein regelbarer Ortsnetztransformator sorgte überdies dafür, dass die Spannungsgrenzen im Netz eingehalten wurden.

Bezahlen muss es auf jeden Fall auch der Normalverbraucher, welcher dadurch mehr Kosten als Nutzen hat

Was die bayerischen Lechwerke in ihrer Studie ermittelten, ist längst bekannt. Bereits im Jahr 2011 wurde berichtet:
ELEKTRONIK, 14.09.2011: Kosten oft höher als Einsparung: »Smart Metering« unter Beschuss
… Die aufkommenden »intelligenten« Elektrizitätszähler sind ins Kreuzfeuer der Kritik geraten. Viele Kunden der Energieversorger sind verärgert, weil sie damit nicht wie erwartet weniger, sondern mehr für elektrische Energie bezahlen müssen. Die detaillierten Daten, die »smart meter« aufnehmen, lassen außerdem die Datenschützer Alarm schlagen. In vielen Staaten der Welt regt sich Widerstand in Form von Internetforen und Bürgerinitiativen.
Die Herstellung und der Einbau der neuen Elektrizitätszähler kosten einiges Geld. Dazu kommt ihre Stromversorgung rund um die Uhr. Wie die Deutsche Energie-Agentur ermittelt hat, liegen die Anschaffungs- und Einbaukosten für die „smart meter“ deutlich höher als die dadurch ermöglichten Kosteneinsparungen: Je nach Anbieter werden einmalig 35 Euro bis 100 Euro und jährlich zwischen 60 Euro und 240 Euro in Rechnung gestellt. Dem stehen im Mittel optimistisch gerechnete Einsparungen von 9 bis 42 Euro gegenüber. Zu einem ähnlich vernichtenden Urteil kommt eine 76-seitige, in Österreich durchgeführte Studie.
Das erreichbare Energieeinsparungspotential liegt gerade mal bei einigen Prozent – ein Tropfen auf den heißen Stein. Dem stehen erheblicher technischer Aufwand und hohe Kosten gegenüber. Letztlich läuft es auf das Prinzip heraus „Warum einfach, wenn es auch kompliziert geht?“
Intelligente Zähler sparen nicht automatisch Energie ein. Sie sparen bei den EVUs Kosten für Investitionen in Kraftwerksleistung und bringen ihnen mehr Geld ein durch höhere kWh-Preise. Den Nutzen haben die Großen, den Schaden die Kleinen. Das Argument „Umweltschonung“ ist nur vorgeschoben, es ist mehr oder weniger Augenwischerei.

elektronik.net 05.06.2013: Feldstudie: Smart Meter senken Strombedarf leicht:
Elektronische Stromzähler haben in Deutschland bisher gewisse Anlaufprobleme. Neben dem Datenschutz stellt sich auch die Frage, wie weit sie überhaupt zum Energiesparen beitragen. RWE hat nun Ergebnisse eine Studie in Mülheim veröffentlicht, wo nahezu jeder Haushalt ein Smart Meter hat.
Grundlage der Studie ist das Projekt »Mülheim zählt«, bei dem von 2008 bis 2012 mehr als 100.000 Smart Meter in der Stadt installiert wurden. Damit ist Mühlheim praktisch komplett mit solchen Zählern ausgestattet.
Das Projekt hat 30 Millionen Euro gekostet und wurde von RWE finanziert. Die Smart Meter sowie die Visualisierungssoftware wurden dabei kostenlos zur Verfügung gestellt. Dabei gibt RWE an, dass so ein Smart Meter rund 10 mal teurer als ein Analog-Zähler ist …
Sollte der Verbraucher diesen Preis also selbst tragen, dürfte es eine ganze Weile dauern, bis die Anschaffungskosten wieder ausgeglichen sind. So bemängeln Kritiker der Smart Meter dann auch häufig, dass die Kosten in keinem Verhältnis zur eingesparten Energie stehen.

Zu dieser Sorge lässt sich nachtragen: Unsere „Vordenker“ und auch die um ihre Kunden (un-)besorgten EVUs sind dabei, das Verhältnis in die gewünschte Richtung zu bringen. Der Strom wird noch so teuer werden, dass sich wirklich jede (noch so geringe) Einsparung lohnt.

Vertrauen ist gut, Kontrolle besser

In einer Firmenzeitschrift war zu lesen, dass die Smart-Meter in Brasilien genutzt werden, um in den Haushalten die gemeldet Anzahl Personen und den Verbrauch zu kontrollieren. Damit wird „Stromklau“ entdeckt, das Abzapfen des Stromes vor dem Zähler – eine in Brasilien scheinbar nicht seltene Form der „Stromgewinnung“.
China arbeitet bereits an der Realisierung der mit solcher (und der Internetüberwachung) möglichen Zukunft:
Frankfurter Allgemeine 22.11.2017: Nationales Punktesystem China plant die totale Überwachung
Mit einem gigantischen Punktesystem wollen Chinas Kommunisten jeden einzelnen Bürger zu sozialistisch-tugendhafter Folgsamkeit zwingen. Regierungskritiker werden bestraft.
Die Pläne von Chinas Regierung, mit einem „Sozialkreditpunktesystem“ die rund 1,4 Milliarden Einwohner der Volksrepublik zu einem vorgeschriebenen sozialen Verhalten zu zwingen, sehen laut Berichten von Staatsmedien erstmals auch Strafen für Wohlhabende vor und gehen damit weit über ihr bisher bekanntes Ausmaß hinaus.
So sollen in der im April neu geschaffenen Verwaltungszone Xiongan nahe Peking, die unter direkter Kontrolle der chinesischen Zentralregierung steht und als persönliches Prestigeprojekt von Präsident
Xi Jinping gilt, unter anderem diejenigen Bürger mit Minuspunkten bestraft werden, die „allein in einer großen Wohnung“ leben, wogegen „Familien, die gemeinsam in kleinen Wohnungen“ leben, Pluspunkte erhalten sollen.
Dies berichtet das Nachrichtenportal „The Paper“, das zur staatseigenen Shanghai United Media Group gehört und unter Aufsicht der Kommunistischen Partei steht. Nach den Plänen in Xiongan, die an die Volkskommunen unter Mao erinnern, in denen harte Feldarbeit mit Pluspunkten belohnt wurde, wird ein Bewertungssystem eingeführt. Dieses untersucht den Angaben zufolge „Gesetzestreue, moralisches Wohlverhalten, soziales Engagement, Aktivitäten im öffentlichen Interesse und Umweltschutz“ jedes einzelnen Bürgers. Abweichungen von sozialen und moralischen Normen werden bestraft. Dem Bericht zufolge soll in Xiongan dazu auch das Fahren ausländischer Oberklasseautos zählen.
Verstoßen die neuen Einwohner gegen die detaillierten Verhaltensregeln, erhalten sie laut dem Bericht neben einem Verbot für den Erwerb von Wohnungen auch keine Schulplätze für ihre Kinder und dürfen keiner Arbeit nachgehen. So soll unter anderem Immobilienspekulation unterbunden und Umweltbewusstsein erzwungen werden. Laut „The Paper“ werden zum Beispiel 100 Punkte von dem persönlichen Bonitätskonto abgezogen, wenn ein Bürger nicht „freiwillig“ beim Pflanzen von Bäumen mithilft.
In vielen Provinzen gibt es für Bürger schon heute empfindliche Strafen bei Fehlverhalten. In der östlichen Provinz Zhejiang, in dessen Hauptstadt Hangzhou Alibaba seinen Sitz hat, liegt der Punktestand jedes Bürgers jedem Internetnutzer auf einer Regierungswebsite offen. „Nicht ehrliches Verhalten“ wird in der Provinz mit Sippenhaft und Freiheitsbeschränkungen geahndet.

Bei uns macht man es übergangsweise mit CO2-Zertifikaten, erst später mit Ethikräten

Die Tendenz, den Untertanen lenken zu wollen, um ihm und der Welt Gutes zu tun, gibt es auch bei uns. Ein Teil davon ist der bestimmt bald drastisch verteuerte CO2-Preis:
EIKE 18. November 2017: Die Kür Macrons zum neuen Klimapräsidenten kann Deutschland zusätzlich (mindestens) 22,5 Milliarden EURO pro Jahr kosten,
aber auch der wieder zunehmende Einflussversuch von „Gutmenschen“, die für sich beanspruchen, mittels theologischer Methoden die Zukunftssorgen der späteren Generationen zu kennen und daraus ableiten, welches Verhalten heute zur Lösung erforderlich ist:
Klimaretter.Info 23. November 2017: Ethikrat soll Klimawandel thematisieren
Eine: … Postdoktorantin der Forschergruppe „Climate Change and Security“ (CLISEC) der Universität Hamburg an den Schnittstellen von Umwelt-, Sicherheits- und Machtpolitik sowie in den Transformations- und Anthropozänstudien …
durfte ihre Sicht der Klimadiskussion auf dem Blog unserer Politikberaterin zum Klima präsentieren
Klimaretter.Info: … Angesichts der Bedrohungsszenarien für den menschlichen Lebensraum und der gesamtgesellschaftlichen Konsequenzen überrascht es, dass den Erkenntnissen der Klima- und Erdsystemwissenschaftler … bisher wenig Beachtung geschenkt wurde.
Doch scheint die Institution
(Anm.: Der Ethikrat) geradezu prädestiniert, sich den klimapolitischen Herausforderungen zu stellen, da sie sich selbst das Ziel gesetzt hat, sich mit den „großen Fragen des Lebens“ zu befassen, auf die es „keine einfachen Antworten“ gibt.
… Sollte sich der Ethikrat des Themenkreises von gesellschaftlichem (Klima-)Wandel und Verantwortung annehmen, wären vorrangig zu debattierende Fragen unter anderem der Umgang mit wissenschaftlichen Erkenntnissen und die Erfassung von Bedeutung und Tragweite unseres (Nicht-)Handelns.
… Dies hätte unter anderem zum Ergebnis, dass der Fokus von scheinbar fernen Vorhersagen, fernab liegenden Tragödien sowie abstrakten Grenzwerten maximaler Treibhausgasemissionen auf uns Menschen im Hier und Jetzt gelenkt, unsere Gefühle und Vorstellungen in den Mittelpunkt gerückt und wir ein Stück mehr in die Gestaltung der Zukunft miteinbezogen würden …

Quellen
[1] EnerIgate messenger 09.08.2017: Smart Grids nehmen 35 Prozent mehr Ökostrom auf
[2] EIKE, 14.11.2017: Das Smartmeter – Zwangsbeglückung und Visionen




Änderungen des Meeres­spiegels und Klima auf Fidschi: totale Falsch­informa­tionen von COP23

Der Gedanke, dass der Meeresspiegel jetzt schnell steigt, stammt vom IPCC, wo Computermodelle kreiert wurden, die einen solchen raschen Anstieg zeigen, zusammen mit einer demnächst einsetzenden „Beschleunigung“ desselben (welcher mit jedem neuen IPCC-Bericht unmittelbarer prophezeit wird und der jetzt sehr bald kommen soll). Es wurden sogar Daten manipuliert, damit diese die Vorgabe des IPCC stützen (www.ijesi.org||Volume 6 Issue 8|| August 2017 || PP. 48-51).

In wahrer Wissenschaft muss man die realen Fakten erkunden, so, wie sie vor Ort beobachtet oder durch validierte Experimente gegeben werden. Auf den Malediven, in Bangladesh und Südindien gibt es sehr klare zu beobachtende Fakten, welche während der letzten 40 bis 50 Jahre stabile Meeresspiegel-Bedingungen belegen (http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.

Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven. Hiermit als Einführung ist es jetzt an der Zeit, Fakten und Fiktion zu erkunden bzgl. der Änderung des Meeresspiegels bei den Fidschi-Inseln.

Im März 2017 führten wir extensive Untersuchungen bzgl. des Meeresspiegels auf den Fidschi-Inseln durch, und wir konnten dabei sehr detailliert die Änderungen des Meeresspiegels während der letzten 500 Jahre rekonstruieren (überraschenderweise hatte keine Studie zuvor diese entscheidende Periode zum Thema, welche für das Verständnis dessen, was heute vor sich geht, so wichtig ist). Unsere Studie enthält auch eine detaillierte Aufzeichnung der Küsten-Morphologie, hoch präzise Nivellierung, Datierung von 17 Stichproben mittels des C14-Verfahrens und Aufzeichnung des Wachstums der Korallen hinsichtlich der dieses Wachstum bestimmenden Tiefe unter der Wasseroberfläche bei Niedrigwasser.

Wir haben unsere Analyse der Tidenmesspunkte auf den Fidschi-Inseln veröffentlicht (nicht direkte Messung eines Meeresspiegel-Anstiegs, sondern eine lokalspezifische Verdichtung und Ozean-Dynamik), ebenso wie Küstenerosion (nicht durch den Anstieg des Meeresspiegels, sondern durch menschliche Fehler) und gemessener und aufgezeichneter Meeresspiegel-Änderungen (https://doi.org/10.15344/2456-351X/2017/137).

Es stellte sich heraus, dass der Meeresspiegel bei den Fidschi-Inseln während der letzten 200 Jahre praktisch stabil geblieben ist. Allerdings wurden zwei geringe Änderungen beobachtet. Der Meeresspiegel schien Anfang des 19. Jahrhunderts um etwa 30 cm höher gelegen zu haben. Kurz nach dem Jahr 1950 fiel der Meeresspiegel um etwa 10 cm, was zum Absterben vieler Korallen führte, die bis zu ihrem Minimum-Niveau von 40 cm unter der Wasseroberfläche gewachsen waren. Während der restlichen 50 bis 70 Jahre kann nachgewiesen werden, dass der Meeresspiegel absolut stabil war, belegt durch Korallen, welche an vielen verschiedenen Stellen beobachtet gezwungen waren, sich horizontal auszubreiten in so genannte Mikro-Atolle.

Diese Dokumentation der Stabilität des Meeresspiegels während der letzten 50 bis 70 Jahre ist von fundamentaler Bedeutung, weil damit das gesamte Gerede über einen rapide steigenden Meeresspiegel als Falschinformation und Fake News entlarvt wird (importiert aus Modellanalysen).

In der Wissenschaft mag es unterschiedliche Ansichten und Interpretationen geben. Das ist normal und Bestandteil vitaler wissenschaftlicher Fortschritte. Allerdings müssen beobachtete/gemessene Fakten immer über Modellanalysen stehen. Im Falle Fidschi haben wir da etwas außerordentlich Aussagekräftiges, nämlich das Korallenwachstum zu Mikro-Atollen – und Korallen lügen nicht.

Wenn der Präsident von COP23, Premierminister der Fidschi-Inseln Frank Bainimarama feststellt, dass „der Klimawandel augenfällig“ ist und dass der „Anstieg des Meeresspiegels ein Faktum ist“, dann bezieht er sich in Wirklichkeit nicht auf wirklich stattfindende Vorgänge auf den Fidschi-Inseln, sondern auf Fake News, getrieben von bestimmten Agenden.

Was Klimawandel betrifft, so sind in Fidschi keinerlei Änderungstrends beobachtet worden. Im Jahre 2016 zog der Wirbelsturm Winston über das Gebiet hinweg und richtete große Schäden an. Allerdings war dies ein Wetterphänomen, nichts anderes. Im langzeitlichen Trend nehmen tropische Zyklone im Pazifik im Zeitraum 1961 bis 2017 weder an Anzahl noch an Stärke zu. Schlussfolgerung: Es gibt keine größere Klimaänderung oder eine Zunahme von Extremwetter im Gebiet der Fidschi-Inseln.

Was Änderungen des Meeresspiegels betrifft, haben Tidenmessungen nicht die Qualität, um als Indikator eines gegenwärtigen Anstiegs des Meeresspiegels herangezogen werden zu können. Küstenerosion ist kein allgemeiner Vorgang auf den Fidschi-Inseln, und wo es doch dazu kommt, kann man nachweisen, dass die Ursache hierfür ein falscher Umgang der Menschen mit der Küste ist. Aufschlussreichere Beweise liefert die Analyse der küstennahen Morphologie und des Korallenwachstums an 12 verschiedenen Stellen auf den Fidschi-Inseln. Der Meeresspiegel ist während der letzten 50 bis 70 Jahre perfekt stabil geblieben. Schlussfolgerung: Alles Gerede um einen rapide steigenden Meeresspiegel bei den Fidschi-Inseln ist nichts weiter als Falschinformation und Fake News.

Dies ließ mich einen „offenen Brief“ an den Präsidenten von COP23, den Premierminister Frank Bainimarama der Fidschi-Inseln schreiben, in welchem ich auf die wirklichen beobachteten Fakten hinwies: Kein Anstieg des Meeresspiegels, sondern dessen absolute Stabilität während der letzten 50 bis 70 Jahre. Auch drängte ich ihn in dem Brief zu „zurück zur Natur“, indem Beweise vor Ort im Mittelpunkt stehen sollten und nicht irgendwelche Modelle und Gedanken, getrieben von politischen und/oder religiösen Agenden.

Link: (https://tallbloke.wordpress.com/2017/11/14/nils-axel-morner-open-letter-to-the-cop23-president/).

Prof. Dr. Nils-Axel Mörner, Geologe & Geophysiker, Spezialist bzgl. Änderungen des Meeresspiegels




Diesel-Verteufelung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (8)

Bild 1. Fortschritt: In den 20er Jahren kostete so ein kleiner „Volks-Flitzer“ 1995,- Mark, wog 320 kg und kam 500 km weit. Hypermoderne E-Mobile kosten heute bis zu 100.000,- €, wiegen 2.000+ kg und kommen realistisch gerechnet etwas mehr als 300-350 km weit


In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden thematisiert. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Nicht wenige der Studien, die das behaupten, basieren sogar auf gefälschten Zahlenwerten. Im sechsten Teil wurden grobe Mängel bei den Studien der US-Umweltschutzbehörde EPA und der WHO dargelegt, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen. Im siebten Teil zeigte sich anhand von umfassenden Abgasuntersuchungen in bayrischen Großstädten, dass selbst an den „Brennpunkten“ des Abgasgeschehens keinerlei Gründe für Fahrverbote für Diesel-PKW vorliegen. Im jetzigen achten Teil wird darauf eingegangen, wie winzig die Bereiche nahe der wenigen Hauptstraßen sind, in denen es tatsächlich zu Überschreitungen von Grenzwerten kommt.
Das Auspuffrohr des Autos ist 25 Mal tödlicher als das Auto selbst“
Dies behauptete Jon McNeill, Teslas Verantwortlichem für den weltweiten Absatz, am 22. Dezember 2016 in einem Interview mit Hongkongs TVB Pearl [TSLA]. Würde man diese Aussage auf Deutschland mit seinen rund 3.500 Verkehrstoten (2015) umrechnen, so wären dies 87.500 Todesfälle durch Autoabgase. Diese groteske Zahl übertrifft selbst die Hetzparolen der DUH noch um fast eine Größenordnung. Sie zeigt vor allem eins: Was DUH und Konsorten bei uns treiben, passt nahtlos in die Marketingstrategie des einen oder anderen „fortschrittlichen“ Konzerns, insbesondere solcher aus den USA und Japan. Sie treibt nicht die Sorge um unsere Gesundheit um, sondern der dringende Wunsch, die zu Schmutzfinken deklarierten Wettbewerber vom Markt zu verdrängen. Umweltfrevel, welche für die Gewinnung der Rohstoffe für die tonnenschweren Batterien begangen werden, fallen ebenso aus der Betrachtung heraus wie die Tatsache, dass aufgrund des hohen Kohleanteils am elektrischen Strom die Emissionen lediglich verlagert werden und dann am Kraftwerksschornstein statt am Kfz-Auspuff entstehen. Mit dieser Schmutzkampagne waren insbesondere die Vertreter US-amerikanischer Interessen besonders erfolgreich. Über von ihnen beeinflusste Organisationen wie das US-Umweltministerium EPA sowie die WHO haben sie es geschafft, der EU und über diese auch Deutschland die absurd niedrigen NO2-Grenzwerte aufzuschwätzen, mit deren Hilfe Politik und Medien gemeinsam versuchen, unserer Automobilindustrie den Garaus zu machen.
Die Mär von der flächendeckenden Vergiftung der Stadtluft

Bei so gut wie allen Meldungen in den Medien wird suggeriert, dass die „zu hohen“ Immissionswerte an einigen wenigen Messstationen einiger Großstädte gleichzusetzen wären mit der breit angelegten Vergiftung so gut wie aller Bewohner dieser Städte. Diese Kampagnen haben eine fatale Breitenwirkung: Zigtausendfach finden sich deshalb in Kommentarspalten und Blogs entsprechende Meinungen wie z.B.: „Fakt ist, daß diese Motoren leider auch schädliche Gase auspusten. An diesen Gasen verrecken allein in Deutschland jedes Jahr bis zu 15 000 Menschen (in Europa sind es rund 400 000). Die Frage lautet also: was verlierst Du lieber, wenn Du zwischen Deinem Arbeitsplatz und Deinem Leben wählen mußt?“ [BLOG]. Befeuert werden solche Meinungen hochamtlich u.a. durch farblich raffiniert gestaltete Grafikdarstellungen, wo die deutschen Ballungszentren von giftgrün-gelblichen Schleiern NO2 belasteter Luft überzogen erscheinen. Die Manipulation wird auch durch eine passende Legende unterstützt, aus der nicht erkennbar wird, wo die Grenzwerte verlaufen, Bild 2.

Bild 2. Angsterzeugend: In dieser UBA-Grafik überziehen großflächige NO2-Schleier in giftgrün-gelblichen Farbtönen die industriellen und städtischen Ballungszentren vom Rhein-Main-Gebiet über Stuttgart bis München (Grafik: UBA)

Derartiges Material wird dankbar von der Lückenpresse aufgegriffen und – erforderlichenfalls nach „kreativer Abwandlung“ – zur Angsterzeugung eingesetzt, wie das Beispiel eines Berichts im „SpiegelOnline“ [SPIE] mit dem Titel „Gesundheitsrisiko Stickoxid Wo Luft in Deutschland krank macht“ zeigt. Nach dem Titel geht es in der Einleitung im gleichen Tonfall weiter: „Im Herbst und Winter droht dicke Luft in Deutschlands Städten. Zwar gibt es weniger Feinstaub, doch die Stickoxid-Grenzwerte werden vielerorts überschritten. Der große Überblick”, gefolgt von einer erschreckenden Deutschland-Karte, die in satten roten und gelben Warnfarben geradezu glüht, Bild 3.

Bild 3. Fakten? Wer braucht schon Fakten, wenn man die gewünschte Botschaft viel einfacher durch Farben direkt am Verstand vorbei ins Unterbewusstsein transportieren kann (Grafik: [SPIE])

Zu diesem Bild gibt es weder Bildunterschrift noch Legende noch Quellenangabe, lediglich einen diskreten Vermerk „Bundesumweltamt“. Letzteres ist möglicherweise als Quellenangabe gedacht, nur gibt es dieses Amt in Deutschland nirgendwo, stattdessen ein Umweltbundesamt (UBA). So schlampig geht es dann auch gleich weiter, denn erst wenn man das Video aufruft, erfährt man, dass es um Feinstaub und nicht um Stickoxide geht, wie es die Überschrift ja eigentlich erwarten ließe. Ein weiterer Beweis für die Recherchequalität von Lückenpresse-Berichten zu Umweltthemen. Hauptsache, man hat den Lesern die rechte Stickoxid-Furcht eingejagt.

Das Fatale an solchen Darstellungen, die zigfach überall in den Medien kursieren, ist die hierdurch vermittelte optische Botschaft, die da lautet: Der gesundheitsschädliche Dreck ist überall in unseren Ballungsgebieten in der Luft, wir müssen dringend etwas dagegen unternehmen. Dabei sprechen die Tatsachen eine ganz andere Sprache.

Betroffen sind nur winzige Teilbereiche

Die Fakten sehen nämlich völlig anders aus. Einen sehr guten Beweis hierfür liefert die bereits im letzten Beitrag angeführte umfassende und mehrjährige Untersuchung des Bayerischen Landesamts für Umwelt über die Abgasemissionen und -immissionen in einer Reihe bayrischer Großstädte [BLFU]. Aus den aufgeführten Beispielen wurde die Landshuter Allee in München ausgewählt, die ein tägliches Verkehrsaufkommen von bis zu 142.000 Fahrzeugen hat, ein Wert, der nur von einigen besonders stark befahrenen Autobahnen übertroffen wird. Aus diesem Grund gehört ein Abschnitt dieser Straße mit weitgehend geschlossener Randbebauung zu den „Hot Spots“ mit den höchsten NO2-Immissionswerten in ganz Deutschland. Allerdings ist dieser Abschnitt insgesamt nur vielleicht einen Kilometer lang. Eine Farbdarstellung der dort gemessenen bzw. aus Messwerten per Computermodell errechneten NO2-Jahresmittelwerte zeigt Bild 4.

Bild 4. Darstellung der Jahresmittelwerte der NO2-Konzentration im Bereich des am stärksten beaufschlagten Abschnitts der Landshuter Allee in München für das Jahr 2011 (Grafik: [BLFU])

Schon auf den ersten Blick ist zu sehen, dass sich die wirklich hohen Grenzwertüberschreitungen auf ein ziemlich schmales Band entlang eines Teils der Landshuter Allee beschränken. Bereits in den Seitenstraßen fallen die Werte sehr schnell unter den Grenzwert von 40 µg/m3 ab. In Hinterhöfen bzw. hinter geschlossenen Gebäudefronten liegen sie grundsätzlich im zulässigen Bereich. Der Maßstab am unteren Bildrand belegt, dass der Bereich, in dem der Grenzwert überschritten wird, selbst in die Seitenstraßen hinein nur an wenigen Stellen mehr als 100 Meter breit ist. Die betroffene Strecke ist insgesamt vielleicht einen Kilometer lang. Mehr nicht. Wie schnell der Abfall der NO2-Konzentration in den Seitenstraßen erfolgt, zeigt Bild 5.

Bild 5. Messungen in den Seitenstraßen belegen, dass die NO2-Befrachtung schon nach wenigen Dutzend Metern unter den gesetzlichen Grenzwert absinkt (Grafik: [BLFU])

Das Gebiet im Bereich der Landshuter Allee, in dem die NO2-Grenzwerte tatsächlich überschritten werden, ist demnach im Vergleich zur Größe der Stadt München geradezu winzig. Um dies auch optisch besser zu verdeutlichen, wurde Bild 4 so überarbeitet, dass nur noch die Bereiche oberhalb des Grenzwerts farblich hervorgehoben sind, Bild 6.

Bild 6. Bei dieser Kopie des Bildes 4 wurden alle Bereiche, in denen die NO2-Grenzwerte unterhalb des Grenzwerts liegen, entfärbt (Grafik: [BLFU])

Mit Bild 6 wird optisch noch besser verdeutlicht, wie klein das Gebiet im Bereich der Landshuter Allee mit NO2-Werten über dem Grenzwert tatsächlich ist. Nach Entfärbung der unkritischen Bereiche verbleibt nur noch ein schmales Band mit einigen kurzen Seitenästen. Dessen Größe kann man realistisch mit vielleicht 200 x 1.000 m ansetzen (die Karte in Bild 4 bzw. Bild 6 umfasst nur die nördliche Hälfte des betroffenen Straßensegments). Das wären 0,2 Quadratkilometer. In München gibt es nur noch eine weitere Stelle, an der der Grenzwert überschritten wird, und zwar am Stachus. Wenn wir für das dort betroffene Gebiet eine Fläche von 0,1 km2 annehmen, so wird der NO2-Grenzwert in München auf einer Fläche von lediglich 0,3 km2 überschritten. Da München eine Gesamtfläche von ca. 311 km2 hat, betrifft dies lediglich ein Tausendstel bzw. 0,1 % des gesamten Stadtgebiets. Schätzen wir aufgrund dieser Flächen die Zahl der betroffenen Anwohner ein, so kann man in Neuhausen (Landshuter Allee) mit seiner Bevölkerungsdichte von rund 7.700 EW/km2 von etwa 1500 Personen ausgehen. Am Stachus kommt man bei einem Mittelwert von 10.000 EW/km2 auf weitere etwa 1.000 Anwohner. In der Summe geht es also um 2.500 Münchner, die in Stadtbereichen mit straßenseitigen NO2-Werten über dem Grenzwert wohnen. Bei einer Einwohnerzahl von rund 1,45 Mio. ist dies ein Anteil von 0,172 %.
In ganz Bayern gibt es insgesamt nur noch vier weitere Hot-Spots, die alle in deutlich kleineren Städten liegen, so dass man hier von weitaus geringeren betroffenen Flächen und Einwohnerdichten ausgehen kann. Es erscheint gerechtfertigt, hier von insgesamt vielleicht weiteren 2.500 Betroffenen auszugehen, so dass die Gesamtzahl für Bayern mit rund 5.000 angesetzt werden kann. Bei einer Gesamt-Einwohnerzahl von ca. 12,9 Mio. geht es also um ganze 0,04 % der Bevölkerung, die überhaupt von NO2-Grenzwertüberschreitungen betroffen sind. Es darf davon ausgegangen werden, dass diese Zahlen von der Größenordnung her auch für die gesamte Bundesrepublik Deutschland gelten. Vergleicht man dies mit den optischen Botschaften der Bilder 2 und 3, so erkennt man deutlich, in welch geradezu ungeheuerlichem Ausmaß unser Volk und unsere Industrie hier – und das ist noch sehr zurückhaltend formuliert – von den Medien und den Behörden manipuliert und betrogen werden.
Die „übersehene“ Senkrechte
Bei der hier vorgestellten überschlägigen Kalkulation des von Grenzwertüberschreitungen betroffenen Anteils der Bevölkerung wurde ein weiterer wichtiger Aspekt noch ausgespart, obwohl er von erheblicher Bedeutung ist: Die Höhe der Wohnung über dem Erdboden. Obwohl die Häuser in den betroffenen Wohngebieten typischerweise eine fünf- oder sechsgeschossige Bauweise aufweisen, werden Immissionsmesswerte grundsätzlich nur auf Erdgeschossniveau erfasst. Dabei ist doch davon auszugehen, dass die schnelle Verdünnung, die man bereits in der Horizontalen mit zunehmender Entfernung von der Straße feststellen kann, sich auch nach oben hin zur freien Atmosphäre vollzieht. Den entsprechenden Beweis liefert Bild 7 [KOCH].

Bild 7. Messstelle Stuttgart am Neckartor. Der Jahresmittelwert für NO2 liegt auf Straßenniveau bei 78 µg/m↑3, auf dem Dach dagegen bei nur noch 20 µg/m↑3 (Grafik: [KOCH])

Man kann davon ausgehen, dass die Abnahme der NO2-Konzentration in vertikaler Richtung in erster Näherung mit dem gleichen mathematischen Ansatz beschrieben werden kann wie diejenige in horizontaler Richtung. Mithilfe einer logarithmischen Funktion kann man nach Anpassung der entsprechenden Parameter den Konzentrationsverlauf entlang der Fassade eines mehrstöckigen Gebäudes in Abhängigkeit von der Konzentration auf dem üblichen Messniveau nachbilden, Bild 8 und Bild 9.

Bild 8. Verlauf der vertikalen NO2-Konzentration entlang der Fassade eines mehrstöckigen Gebäudes bei einem Pegel auf Straßenniveau von ca. 80 µg/m↑3


Bild 9. Verlauf der vertikalen NO2-Konzentration entlang der Fassade eines mehrstöckigen Gebäudes bei einem Pegel auf Straßenniveau von ca. 60 µg/m↑3


Wie aus Bild 8 ersichtlich, sinkt bei einem auf Straßenniveau gemessenen Ausgangswert von etwas über 80 µg/m3der NO2-Gehalt bereits bei der 2. Etage auf einen Wert knapp über dem Grenzwert und liegt ab der 3. Etage sicher unterhalb davon. Bei einem Ausgangswert von 60 µg/m3 wird der Grenzwert sogar schon ab der 1. Etage nicht mehr überschritten. Hierzu ist anzumerken, dass im Jahre 2016 in ganz Deutschland nur an zwei Messstationen Jahresmittelwerte von mehr als 79 µg/m3 und an lediglich sechs weiteren Stellen Werte von mehr als 59 µg/m3 registriert wurden [UBA]. Man kann daher davon ausgehen, dass an den insgesamt 66 Messstellen, an denen der Grenzwert überhaupt „gerissen“ wird, die Bewohner fast aller Etagen ab dem 1. Stock nicht von Grenzwertüberschreitungen der Außenluft betroffen waren. Da die Bebauung gerade der Straßen, in denen die Messwerte über dem Grenzwert liegen, in der Regel fünf- bis sechsgeschossig ausgeführt sein dürfte, kann man unterstellen, dass dort höchstens 30-40 % der Bewohner mit einer Außenluft zu tun haben, die oberhalb des aktuellen Grenzwerts liegt. Somit kann der im vorigen Abschnitt ermittelte Prozentsatz an betroffenen Bewohnern um den Faktor 0,3 bis 0,4 reduziert werden. Es dürfte daher gerechtfertigt sein, von einem Wert zwischen 0,01 % und 0,02 % der Bevölkerung auszugehen.
Warum nur will man mit Atombomben auf Spatzen schießen?
Warum wird wegen einer so überschaubaren Zahl wirklich Betroffener dann ein derartiger Aufstand veranstaltet? Medien und Politik überschlagen sich derzeit geradezu in dem Versuch, in trauter Einheit über die NO2-Abgasdiskussion den Diesel und danach die gesamte klassische Individualmobilität der Bürger zu vernichten. Deshalb wird so getan, als sei ein Großteil der Bevölkerung in unseren Städten gesundheitlich durch Dieselabgase gefährdet, obwohl die Realität doch völlig anders aussieht. Es geht in ganz Deutschland um vielleicht 15.000 Personen, die in Bereichen leben, in denen die NO2-Werte der Außenluft dauerhaft über dem (sowieso schon willkürlich viel zu tief angesetzten) Grenzwert von 40 µg/m3 liegen. Zur „Behebung“ durch Umstellung auf das Etappenziel Elektromobilität werden gigantische volkswirtschaftliche Schäden in Kauf genommen. Allein bei VW summieren sich die Zusatzkosten inzwischen auf ca. 100 Mrd. €, ein Großteil davon für die überhastete und sinnlose Umstellung der Entwicklungsaktivitäten sowie der Produktion auf die Totgeburt Elektromobilität. Die anderen deutschen Kfz-Hersteller dürften zusammen ähnlich hohe Beträge fehlinvestieren. Unsere wichtigste Schlüsselindustrie wird dadurch in ein 200 bis 250 Mrd. teures Abenteuer geprügelt. Niemand scheint zu bedenken, dass unsere Volkswirtschaft vom Export abhängt und dass E-Mobile noch auf Jahrzehnte hinaus in den Ländern der 2. und 3. Welt keine Abnehmer finden werden, weil es dafür keine Infrastruktur und oft noch nicht einmal eine zuverlässige Stromversorgung gibt.
Zweiter Leidtragender ist die Bevölkerung. Die knapp 15 Millionen deutschen Dieselbesitzer werden als Folge der Anti-Diesel-Hysterie durch Wertverlust ihrer Fahrzeuge enteignet. Setzt man den erlittenen Wertverlust auch nur mit 3.000 € an, so werden die Besitzer mit rund 40 Mrd. € für etwas bestraft, was ihnen die gleiche Politik, die jetzt in Bonn über das Ende des Verbrenners streitet, jahrelang als erstrebenswert aufgeschwätzt hat. Der gesamte volkswirtschaftliche Schaden liegt demnach schon allein aufgrund dieser beiden Positionen irgendwo zwischen 240 und 300 Mrd. €. In der Realität ist er sogar noch erheblich höher, wie in einem späteren Kapitel noch ausgeführt wird.
Man schmeißt also mehr als 250 Mrd. € sowie die Zukunft unserer wichtigsten Exportbranche zum Fenster hinaus, nur um die angebliche „Vergiftung“ von vielleicht 15.000 Einwohnern zu verhindern. Es wäre weitaus billiger, allen diese Personen einen Daueraufenthalt in einem Luxushotel ihrer Wahl zu finanzieren. Wesentlich einfacher und effizienter wäre es beispielsweise, die tatsächlich betroffenen Bewohner durch entsprechende Prämien zum Wegzug zu bewegen und den Vermietern die temporären Mietausfälle zu ersetzen. Das Ganze wäre nämlich nur zeitweilig zu sehen, denn in wenigen Jahren wird sich das „Abgasproblem“ dank der neuen Abgastechnologien (EURO 6d) sowieso in Luft aufgelöst haben, Bild 10.

Bild 10. Bei konsequenter Einführung der neuesten EURO 6d-Abgasreinigungstechnologie würden die NO2-Immissionen an der Messstelle „Am Neckartor“ in Stuttgart von derzeit 82 µg/m↑3 weit unter den Grenzwert absinken (Grafik: [KOCH])

Dogmen statt Existenzvorsorge
Gerade am Thema Dieselabgase kann man durch kritische Analyse einfach zugänglicher Fakten ganz leicht beweisen, in welchem Ausmaß hier die Realität ignoriert wird, um der Bevölkerung und der Wirtschaft ideologische Dogmen grüner Salonkommunisten aufzuzwingen, statt Existenzvorsorge zu betreiben. Triebkraft hierfür ist die inzwischen alles durchdringende Klimahysterie. Für diese Ideologen in Politik und Medien ist die Individualmobilität nur ein Nebenkriegsschauplatz. Sie verwenden hier jedoch die gleichen Methoden der Manipulation, des Totschweigens kritischer Stimmen und der Verbreitung bewusster Falschaussagen wie bei der CO2-Diskussion. Nur kann ihnen dies beim Thema Diesel viel einfacher und schneller nachgewiesen werden als beim Klima, weil die Zusammenhänge einfacher sind und man sich nicht so einfach hinter ganzen Gebirgen komplexer mathematischer Gleichungen verstecken kann wie bei Klimamodellen. Die Medien spielen dieses schmutzige Spiel voller Inbrunst mit, die wenigen realistischen Stimmen werden durch Lautstärke und Totschlagsargumente wie „Dieselabgase töten“ einfach übertönt. Neben den öffentlich-rechtlichen Sendern spielen hier auch einige „fortschrittliche“ Publikationen – unter ihnen nicht zuletzt der „Spiegel“ – eine besonders negative Rolle. Deshalb wurden hier deren Manipulationstechniken speziell gewürdigt. Der Anspruch dieser Blätter, besonders kritisch-investigativ zu sein, ist nichts als ein Feigenblatt. Bezüglich ideologischer Verbohrtheit und der Bereitschaft zur Manipulation stehen sie der „Bild-Zeitung“ nicht im Geringsten nach. Sie verwenden nur kleinere Buchstaben bei den Überschriften und schreiben etwas mehr Text.
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau sowie ihren Spießgesellen bei den Printmedien präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Fachleuten, Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos. Die sich jetzt abzeichnende „Jamaika“-Koalition ist dafür ein sehr schlechtes Omen.
Fred F. Mueller
Demnächst folgt Teil 9
Quellen

[BLFU] https://www.lfu.bayern.de/luft/luftreinhalteplanung_verkehr/nox_projekt/index.htm

[BLOG] https://groups.google.com/forum/#!topic/de.soc.umwelt/7dCudiLAQOc%5B1-25%5D
[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf
[SPIE] http://www.spiegel.de/wissenschaft/mensch/stickoxid-wo-luft-in-deutschland-krank-macht-a-1120859.html
[TSLA] http://teslamag.de/news/abgasemissionen25-mal-auto-tesla-fuehrungskraft-11242
[UBA] http://www.umweltbundesamt.de/sites/default/files/medien/358/dokumente/no2_2016.pdf