Energiepolitik und Wahlkampf

Jetzt werden sie wieder anfangen, die endlosen Debatten um Themen wie Flüchtlingspolitik, Wohnraum, soziale Probleme, Armut… All diese Themen mögen ja in einem Hochindustrieland und einer sich als fortschrittlich gerierenden Gesellschaft wichtig sein – aber die Grundlage, die ureigene Basis all dessen, was unsere Gesellschaft, unseren relativen Wohlstand und alles ausmacht, was wir als ,schön‘ ansehen – diese Grundlage war mit keinem einzigen Wort in den politischen Debatten zu vernehmen, weder vor noch nach der Wahl.Gemeint ist natürlich Energie und Energiepolitik.

Wenn man sich so umhört im Bekanntenkreis oder wo auch immer – es ist erschreckend, wie wenig Menschen wirklich wissen, was Energie eigentlich ist. Das heißt nicht, dass ich es weiß! Da gibt es Experten zu diesem Thema wie die EIKE-Autoren Fred F. Mueller, Dr. Günter Keil und auch den Vizevorsitzenden des EIKE Michael Limburg. Aber wenn man sich vor Augen führt, dass die Fragen bzgl. Flüchtlingen, bezahlbare Wohnungen usw. vollkommen gegenstandslos sind, wenn es zum Großen Blackout kommt, dann sollte man sich zumindest etwas zu diesem Thema informieren.

Für mich ist es ein Skandal aller bisher im Bundestag vertretenen Parteien und noch mehr der Medien, dass dieses Thema in keinem Forum, bei keiner Gelegenheit auch nur ansatzweise ein Rolle spielt. Der Faden, an dem alles hängt, was unser Land und unsere Gesellschaft ausmacht, wirklich alles, wird immer dünner und droht zu reißen – und niemand an relevanten Stellen spricht es an. Und wenn doch, wie es eine sich endlich in Deutschland wohl etablierende alternative politische Kraft tut, dann wird es in den Medien boykottiert.

Was ist Energiedichte, Erntefaktoren, Redispatch-Maßnahmen, Lastgangverläufe, … über all das kann man sich im Internet informieren. An sich wäre das die Aufgabe der Medien, aber – nichts ist!

Fazit: Welche Bedeutung hat all das Gezerre, Gezänk und Gerede nach der Wahl, welches täglich viele Zeitungsseiten füllt – welche Bedeutung hat das alles, wenn der Blackout kommt?

Es wird höchste Zeit, dass die Energie-Problematik im Bundestag angesprochen wird – und zwar so fachgerecht, wie es in einigen Landtagen schon der Fall war. Und das sehr, sehr schnell! Alles Andere ist dagegen reine Makulatur! Oder nicht?

© Chris Frey, September 2017




Haben Sonnen­wind und Planeten­stellungen Einfluss auf unser Wetter bzw. Klima?

Beobachtungen:

  • Einfluss des Sonnenwindes auf unser Wetter

  • Einfluss der Planetenstellungen auf den Sonnenwind

Voraussage:

  • Abkühlung bis nach 2040 durch 3- und 4-fache Planetenstellungen

Dr. Borchert (12. Nov. 2015 verstorben; ehem. EIKE Mitglied) hat dieses Verhalten in der letzten Erwärmungsdekade (bis 1998) in allen Einzelheiten untersucht und seine Arbeit – Using Satellite Measurements to study the Influence of Sun Activity on Terrestrial Weather – zu der Tagung der „Amerikanischen Meteorologie“ 2010 eingereicht.

Sein dortiger Vortrag über diese Arbeit stieß auf eine breite positive Resonanz und Anerkennung.

Auszug aus „Die Wirkungsweise von Emissionen der Sonnenflecken auf unsere Erde“ (Dr. Borchert, 2013):

Da der Mechanismus der Klimawirkung von CO2 als falsch erkannt worden ist, sollte der Mechanismus der Klimabeeinflussung und auch anderer Störungen auf der Erde durch die Sonnenaktivität genauer bekannt sein. Aus den Messungen solarer Protonen, Elektronen und Röntgensignalen, die von Satelliten der NOAA gewonnen werden, und aus Messergebnissen des weltweiten Neutronenmessnetzes kann ein Weg der Einwirkung von Partikelemissionen der Sonne auf die Erde gezeigt werden.

Die Periodizitäten der Sonnenflecken werden nach gängiger Meinung verursacht durch stochastisch bedingte Magnetströme im Inneren der Sonne. In letzter Zeit wird eine systematische Steuerung dieser Periodizitäten durch die Konstellation der Planeten zur Sonne nicht mehr ausgeschlossen. Der von P. Jose-Havard 1964 berechnete zeitliche Verlauf des Drehimpulses der Sonne, bezogen auf den Schwerpunkt des Sonnensystems in Abhängigkeit von der jeweiligen Stellung der vier großen Gasplaneten Jupiter, Saturn, Neptun und Uranus ist von Jose festgestellt worden mit einem Zyklus der vier großen Planeten von 178,8 Jahren (auch von Landscheidt 2004, ETH, Solheim, Scafetta, Frau Präsidentin Prof. Dr. Richards der Internationalen Astronomischen Union 2015).

Mittels einer Planetensoftware wurde nun von mir dieser 178,8 Zyklus über ca. 2.800 Jahre untersucht. Nach ca. 19,866 Jahren stehen sich Jupiter und Saturn immer wieder in einer Reihe gegenüber. Die Umlaufzeiten schwanken von 6.912 bis 7.492 Tagen, jeweils bezogen darauf, ob die beiden Planeten näher (Erde = kühler) oder ferner (Erde = wärmer) zur Sonne stehen.

Grundsätzlich gibt es zwei aufsteigende und dann einen absteigenden Knoten – siehe Abb. 11 (Graphik oben). Nach 23 solcher Umläufe von ca. 460 Jahren erfolgt eine Umkehrung. Nach ca. 920 Jahren stellt sich der erste Zustand wieder ein. Interessant ist, dass der 59,6 Jahre-Zyklus (3×19,866 Jahre) mit der atlantischen Oszillation deckungsgleich ist.

Neben den 2-fachen Planetenstellungen gibt es auch 3-fache Stellungen sowie alle 178,8 Jahre die große 4-fache Stellung, die nach 9 Umläufen von Jupiter und Saturn immer wieder präzise erscheinen. Grundsätzlich gibt es einen durchgehenden nachweisbaren Zyklus über die 2800 Jahre mit den Planetenstellungen Jupiter + Uranus und Saturn + Neptun. Zusätzlich wurden zwei weitere parallele Zyklen festgestellt, der zweite 4-fache Zyklus ist nachweisbar bis 1140, macht dann eine Pause und ist ab 629 wieder vorhanden. Der dritte 4-fache Zyklus ist nur bis 1268 nachweisbar (Abb. 9-2).

Im Bereich von 800 bis um 1350 n.Chr. waren in der mittelalterlichen Warmzeit nur sehr wenige 3-fache und 4-fache Planetenstellungen zu beobachten – die Parallelste um 1306,61. Ganz anders in der „Kleinen Eiszeit“ von ca. 1620 bis 1710; hier wurden nur geringe oder keine Sonnenflecken auf der Sonne beobachtet und wir hatten zusätzlich in diesem Zeitraum sieben 3- und 4-fache Planetenstellungen, die einen nicht unwesentlichen Einfluss auf den beschriebenen Forbush-Effekt ausübten!

Nach Borchert: Ein Vergleich der meteorologischen Zeitreihen mit dem Verlauf der in Moskau gemessenen Neutronenstrahlung der Sekundärstrahlung ergab einen um etwa 7 Tage verzögerten Rückgang der Bewölkung gegenüber der Forbush-Reduktion.

Nach meinen Untersuchungen/Beobachtungen ist die Zeitverschiebung bzgl. der Abnahme der Bedeckungen abhängig von der Intensität des Sonnenwindes, ob es sich um einen CME, einen Flare oder wie in den letzten Monaten um ein Black Hole handelt. Ich habe schon bei einem CME nur 3 bis 5 Tage an Zeitverzögerung festgestellt, bei Black Hols ergeben sich erheblich größere Zeitverschiebungen!

Abb. 1: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert.

Abb. 2: Sonnen-Protonen und Abnahme der kosmischen Strahlung nach Borchert, Reduzierung der Bedeckungen und ZUNAHME der Sonnenscheindauer!

Abb. 3. Kosmische Strahlung seit 1958 bis 07.2017: (http://cr0.izmiran.ru/mosc/)

1958 – 2010 bis zu 40% Abnahme der kosmischen Strahlung – dadurch Abnahme der Im Jahre 1984,25 hatten wir einen 4-fachen Planetenzyklus von 178,8 Jahren, entsprechend der dritten Planetenstellungen – Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 18%. Über mehrere Jahre musste ich große Schneemengen von meinem Grundstück beseitigen (Kältedauer ca. 3-4Jahre)!

Abb. 4. Kosmische Strahlung bei 4-facher Planetenstellung von 1984

Im Jahre 1996,91 hatten wir einen weiteren 4-fachen Planetenzyklus von 178,8 Jahren entsprechend der ersten Planetenstellung -Jupiter + Neptun – Saturn + Uranus. DAS führte zu einer Zunahme der kosmischen Strahlung von ca. 14%, in der Warmdekade. Die Abkühlung war messtechnisch erkennbar, war aber nicht sehr stark (Kältedauer ca. 3Jahre)!!

Abb. 5. Kosmische Strahlung bei 4-facher Planetenstellung von 1996

Abb. 6. Kosmische Strahlung bei einer 3-fachen Planetenstellung von 2009

Seit 2000 gab es eine Zunahme der kosmischen Strahlung um ca. 19%. Es deckt sich mit der direkt gemessenen kosmischen Strahlung vom 03.2015 bis 06.2017 um ca. 13%!

Abb. 7. Kosmische Strahlung von 2000 bis 05.2017 und die Direktmessung

Abb. 8. Messungen der NASA zeigen, dass sich die kosmischen Strahlen mit einer Zunahme von mehr als 13% seit 2015 verstärken. Warum werden kosmische Strahlen intensiviert? Der Hauptgrund ist die Sonne. Solare Sturmwolken wie koronale Massenauswürfe (CMEs) fegen die kosmischen Strahlen weg, wenn sie an der Erde vorbeifliegen. Während eines Solar-Maximums sind CMEs reichlich vorhanden und kosmische Strahlen werden in Schach gehalten. Nun aber schwingt der Sonnenzyklus auf das Solar-Minimum, so dass kosmische Strahlen zurückkehren können. Ein weiterer Grund könnte die Schwächung des Magnetfeldes der Erde sein, die uns vor der Tiefenstrahlung schützt.

http://www.spaceweather.com/archive.php?view=1&day=20&month=07&year=2017

Zusammenfassung:

Auf Grund der oben festgestellten zusätzlichen Auswirkungen der Sonnenmagnetfelder durch die 3- und 4-fachen Planetenstellungen wird eine Zunahme der kosmischen Strahlung erfolgen und damit verbunden eine Abkühlung auf der Erde. Für die 4-fachen Planetenstellungen um 2024,33 und um 2035,21 (Kältedauer ca. 3-4Jahre) können wir mit einer erheblich GRÖSSEREN Abkühlung als von 1984 rechnen!

Wie schon Herr Dr. Borchert feststellte: Aus den Chroniken von Wikipedia ist klar erkennbar, dass bei einer Abkühlung die Erdwolkenfläche um ca. 4-6% zunimmt. Die Folgen sind Jahre mit erheblich höheren Regenmengen!

Der Abkühlungsprozess wird sich nach 2040 wieder reduzieren, zumal 2060 und 2080 nur mit einer 3-fachen Stellung zu rechnen ist.

Eine weiterführend Graphik in der Grösse von 650mm Breite und 870mm Höhe kann auf Wunsch per Mail zugestellt werden – Datenfile ca. 5MB.

  1. 2-, 3-, und 4-fache Planetenstellung von 0 bis 2100 n. Chr.1. 4-Fach-System 2022 bis 2026; 2024 Max., Opposition zur Erde mit Jupiter, Jupiter 2024 nur 3,986AU.

  2. 4-fach System 2033 bis 2037; 2035 Max., Opposition zur Erde durch Jupiter dann Saturn 2041; Jupiter 2034 nur 3,9AU.

  1. Das Gravitationsverhältnis der Sonne zu alle Planeten beträgt ca. 750:1

  2. Das Drehmomentverhältnis aller Planeten zur Sonne beträgt ca. 88:1




Diesel-Verteu­felung: Krieg gegen das eigene Volk: Diesel: Die Lücken­medien im Glashaus (4)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Auch der jetzige vierte Teil wird sich mit diesem Aspekt nochmals vertieft beschäftigen müssen. Vorher allerdings müssen noch zwei Mythen angegangen werden, die von den Verfechtern der Heilslehre vom alleinseligmachenden Elektromobil pausenlos und mit ebensoviel Aggressivität wie Unkenntnis der Fakten hinausposaunt werden: Die Märchen vom alleinseligmachenden Öffentlichen Personennahverkehr und von der unendlich verfügbaren (selbstfahrenden) Elektromobilität.

Ist das Auto in der Stadt der Zukunft verzichtbar?

Es gibt vor allem in den großen Städten gutsituierte Schichten im sportlichen Alter, die das Glück haben, bei gutem Aus- oder Einkommen in geringer Entfernung zum Ausbildungs- oder Arbeitsplatz wohnen zu können. Diese oft höher gebildeten und entsprechend sprachgewandten Zeitgenossen machen sich in den Medien sowie in vielen Kommentaren und Blogs mit einer Lautstärke bemerkbar, die weit höher ist als ihr Anteil an der Gesamtbevölkerung. Defizite haben sie dagegen oft mit Blick auf Sachkunde und Verantwortungsbewusstsein. Sie lehnen das Auto ab und verzichten oft demonstrativ darauf, den Führerschein zu machen. Da die Bevölkerung jedoch nicht nur aus Fahrradkurieren mit überentwickeltem Geltungsdrang besteht, sollte man sich bei solchen Fragen eher an Fachleute wenden, welche sich beruflich mit den täglichen Realitäten der Mobilität beschäftigen müssen: Den Stadtplanern und ihrer Detailarbeit, Bild 2.

Bild 2. Ohne detaillierte Planung würde die Verkehrsprobleme in unseren Städten zu völligem Chaos führen (Grafik: [STPL])

Wie sehr sich deren Gedankenwelt von „grünen“ Vorstellungen unterscheidet, zeigt eine Analyse von Dr. Gerd Held [GEHE], die sich auch auf Ergebnisse der Gesamtverkehrsprognose 2025 für die Länder Berlin und Brandenburg [VERK] stützt. Dabei ist festzuhalten, dass man menschliche Aktivitäten räumlich nicht beliebig komprimieren kann. Der teure Raum in Hochhaustürmen ist nur noch für große, finanzstarke Verwaltungseinheiten erschwinglich. Industriebetriebe, kleinere Gewerbe und erst recht Normalverdiener werden verdrängt. Bezahlbar bleiben Wohn- und Gewerberaum deshalb nur bei multizentralen Konzepten. Dementsprechend weiträumig muss auch das Verkehrssystem ausgelegt werden. Doch wenn sich Besiedlung und menschliche Aktivitäten auf eine größere Fläche verteilen, kann man nicht alles mit den Linienkonzepten des ÖPNV abdecken. Vor allem dann nicht, wenn nicht nur Arbeitswege, sondern auch Einkäufe, Dienstleistungen, Ver- und Entsorgung sowie Sport und Freizeit einzubeziehen sind. Beurteilungsgrundlage ist sinnvollerweise dabei die Verkehrsleistung, weil diese auch die Entfernungen berücksichtigt. Kernaussagen der Analyse zeigt die folgende Tabelle:

Trotz steigenden Anteils der Rad- und Fußwege sowie des ÖPNV bleibt das Auto die entscheidende Grundlage der Mobilität. Würde man beispielsweise die Ausweichmöglichkeiten an die Peripherie durch massive Beschränkungen des motorisierten Individualverkehrs (MIV) unterbinden, so käme es auf den bereits jetzt angespannten innerstädtischen Wohnungsmärkten zu untragbaren Zuständen. Das Fahrrad ist kein barrierefreies Verkehrsmittel und stößt mit zunehmenden Entfernungen an „harte“ Grenzen, vor allem wenn es um größere Lasten bzw. um Personen mit Einschränkungen bezüglich Fitness oder Gesundheitszustand geht. Noch realistischer statt der „Verkehrsleistung“ wäre es, wenn man auch die Sachleistung des Transports (mitgeführte Dinge, z.B. bei Großeinkauf) einbeziehen würde. Spätestens, wenn man den Gewerbeverkehr von Handwerk und Lieferdiensten in die Betrachtung mit einbezieht, macht sich diese Dienstleistungsfunktion des Verkehrs deutlich bemerkbar. Die autofreie Stadt ist und bleibt eine Utopie.

Elektromobilität – Utopien ohne Substanz

Als eine Art Allheilmittel für alle Probleme der Mobilität werden derzeit Autos mit elektrischen Antrieben sowie selbstfahrende Fahrzeuge propagiert, die man anfordern und verlassen kann, damit sie sich fahrerlos zum nächsten Kunden begeben und diesen dann zum gewünschten Ziel transportieren können. Beides sind reine Utopien, in die dennoch auf Druck der Politik ungeheure Summen investiert werden. Während der Diesel-Skandal VW wohl so um die 25 Mrd. € gekostet hat, investiert der Konzern jetzt „freiwillig“ weitere 70 Mrd. in die beschleunigte Entwicklung des elektrischen Fahrens. Dieses Geld ist zum Fenster hinausgeworfen. Es gibt:

  1. Zuwenig Lithium auf der Welt. Bergbaulich gewinnbar sind nach aktuellen Schätzungen vermutlich lediglich knapp 40 Mio. Tonnen [GREE]. Bei einem Kfz-Bestand von derzeit um 1,5 Mrd. Stück und einem Lithiumbedarf von ca. 10 kg/ Fahrzeug (einschl. LKW) würde man demnach 1,7 Mal den derzeitigen weltweiten Kfz-Bestand mit Batterien ausrüsten können. Danach wäre Schluss, es gibt derzeit kein praktikables Recycling für Lithium.
  2. Zuwenig Strom in Deutschland. Die Umstellung der gesamten deutschen Fahrzeugflotte auf Batteriebetrieb würde einen zusätzlichen Strombedarf von knapp 340 Terawattstunden (TWh) bedingen. Die gesamte Stromerzeugung lag 2016 bei 648 TWh. Wo soll der Strom herkommen, wenn wir außerdem noch Kohle- und Kernkraftwerke abschalten und die Regierung sich darauf festgelegt hat, bis 2050 den Gesamt-Stromverbrauch von 524 TWh/ Jahr auf 393 TWh/ Jahr [ELMO] zu senken?
  3. Zuwenig Leitungen. Um den gesamten Kfz-Verkehr zu elektrifizieren, muss praktisch das gesamte deutsche Stromnetz erneuert und verstärkt werden, bis herab zum einzelnen Hausanschluss und mitsamt aller Trafostationen und Umspannwerken. Das Netz besteht zurzeit aus ca 35.000 km Höchstspannungsleitungen (Bild 3), deren Umbau bzw. Erweiterung je nach Ausführung zwischen 1,2 und 11,2 Mio €/ km kosten dürfte [CLEA]. Dazu kommen ca. 77.000 km Hochspannungsleitungen (110.000 V), 479.000 km Mittelspannungsleitungen (20.000 V) sowie 1,2 Mio km Niederspannungsnetz bis zu den Haushalten. Die Kosten für die erforderliche Verstärkung der Netze lassen sich kaum abschätzen, könnten jedoch sogar den dreistelligen Milliardenbereich überschreiten. Zahlen müsste die Allgemeinheit.

Bild 3. Das deutsche Höchstspannungsnetz hat eine Länge von ca. 35.000 km. Jeder Kilometer Neubau kostet zwischen 1,2 und 11,2 Mio. €.

Um nicht falsch verstanden zu werden: Ein gewisses Marktsegment für rein elektrische Fahrzeuge gab es schon immer und wird es auch in Zukunft geben. Aber die Vorstellung einer flächendeckenden Umstellung des Verkehrs von Verbrenner auf Strom ist für die absehbare Zukunft weder durchführ- noch bezahlbar. Bei den Ländern, die derzeit mit teils extremen Zielen vorpreschen wie die Niederlande oder Norwegen, könnte man fast den Verdacht haben, dass es hier Kräfte gibt, die auf ein Ende mit Schrecken hinarbeiten, weil es die einzige Möglichkeit zu sein scheint, einem Schrecken ohne Ende zu entgehen.

Und was das viel gerühmte selbstfahrende Auto angeht: Das kann klappen. In Städten ohne menschliche Fahrer, ohne Radfahrer und ohne spielende Kinder wäre es auch heute schon denkbar. Bei 6-10 km/h alles kein Problem. Doch ein fahrerloses Auto, das bei heutigen Verkehrsverhältnissen den Arc de Triomphe umrundet, ohne halb Paris lahmzulegen? Da glaubt man wohl besser an den Weihnachtsmann.

Zurück zum „Faktenfinder“

Hierin knöpfen sich die Autoren nach ihren Ausführungen über die angeblichen Gesundheitsgefahren durch NO2 nochmals die Wissenschaftliche Gesellschaft für Kraftfahrzeug- und Motorentechnik vor. Diese hatte in einem Statement vom Juni 2017 behauptet, dass das NOx-Emissionsproblem technisch gelöst und Diesel-PKW künftig nicht mehr als Problem anzusehen seien. Gemeint war damit die neueste Euronorm (Euro6dtemp) zur Harnstoff-Einspritzung, die für Neuzulassungen ab dem 1.1.2019 gelten wird. Dem widerspricht der von den Verfassern zitierte Sprecher des „Bundesumweltamtes“ (das zwar eigentlich Umweltbundesamt heisst, aber Schwamm drüber) wie folgt: „Lastwagen halten schon jetzt die Grenzwerte ein, weil deren Harnstoff-Einspritzanlagen ausreichend dimensioniert sind. Für Autos, die derzeit auf der Straße sind, gilt das natürlich nicht. Und genau die sind ja für die hohen NOx-Werte verantwortlich und werden noch lange im Land unterwegs sein“. Die Grafik aus seinem eigenen Amt (UBA-Telegramm 1/2016, Bild 4) stützt diese pessimistische Einschätzung allerdings nicht wirklich, dokumentiert sie doch einen kontinuierlichen Rückgang der NO2-Immissionswerte an allen Messstellen, selbst an denen in den so genannten Hot-Spots. Auf den „kleinen“ Versprecher mit NOx statt NO2 wird in einer späteren Folge dieser Reihe noch näher eingegangen.

Bild 4. NO2-Jahresmittelwerte 2005 bis 2015 (Grafik: UBA)

Dann gibt es jedoch noch eine zweite Grafik zum gleichen Sachverhalt und aus dem gleichen Jahr, die etwas anders aussieht, Bild 5.

Bild 5. Darstellung der NO2-Immissionswerte an Messstationen mit gegenüber Bild 4 geänderter Zeitspanne (Grafik: UBA)

Bild 4 und Bild 5 zeigen verblüffend unterschiedliche Verläufe der an verkehrsnahen Messstellen in Städten gemessenen Werte. Beim UBA wird man sich darüber Gedanken machen müssen, wie sich derartige Diskrepanzen auf die Glaubwürdigkeit der Aussagen der Behörde auswirken könnten.

Ungeachtet dessen ist das Interessante an der Aussage des UBA-Sprechers, dass er geschickt eine unbestreitbare Tatsache dazu benutzt, um einen Sachverhalt irreführend darzustellen. Dass es immer Autos geben wird, die nach dem Kauf noch viele Jahre länger als üblich benutzt werden, ist eine Binsenweisheit. Schließlich brummen auch heute noch diverse Oldtimer aus den 30er Jahren über unsere Straßen. Entscheidend für das Abgasgeschehen ist jedoch der ständige Generationswechsel, bei dem vor allem die ältesten Fahrzeuge mit dem schlechtesten Emissionsstandard ausgetauscht werden. Und trotz aller Kritik ist auch beim Diesel EURO-4 besser als EURO-3, EURO-5 besser als EURO-4 und EURO-6 besser als EURO-5. Zur künftigen Entwicklung gibt es eine anschauliche Grafik aus einer Mittelfristprognose des ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH [TREM], Bild 6.

Bild 6. Prognostizierte Entwicklung des PKW-Bestandes nach Emissionsstandards (Grafik: [TREM])

In die gleiche Richtung zielt auch eine Prognose aus den Hintergrundinformationen zur neuesten Version 3.3 des HBEFA-Handbuchs [HBEFA], Bild 7.

Bild 7. Detailliertere Prognose zur Ablösung älterer Dieselfahrzeuge durch Modelle mit den verschiedenen Varianten der EURO-6-Abgasnorm (Grafik: [HBEFA])

Diese neuere Untersuchung aus dem Jahre 2017 geht detaillierter auf die verschiedenen Unterkategorien der EURO-6-Kategorie bei Dieselfahrzeugen ein. Auch nach dieser Prognose ist mit einer vergleichsweise schnellen Ablösung vor allem der Fahrzeuge mit EURO-4 und EURO-5 zu rechnen. Beide Untersuchungen sind sowohl im Umweltministerium als auch im UBA, die zu den Auftraggebern der Studien gehören, bestens bekannt. Dass Fr. Hendricks nebst ihren Untergebenen ungeachtet der ihr bekannten Fakten so lautstark gegen die Autohersteller wettern, ist nicht mehr mit Vorsorgedenken für die Bevölkerung zu erklären. Erklärbar ist dies nur durch die offene Industriefeindlichkeit der Akteure. Einen interessanten Einblick in die dahinter steckenden rot-grünen Netzwerke gibt ein kürzlich in den „Stuttgarter Nachrichten“ erschienener Artikel [MAFI]. Da erfährt man interessante Details wie z.B. die Tatsache, dass ein früherer Chef des Vereins Deutsche Umwelthilfe (das ist der Verein, der aktuell versucht, Deutschlands Autoindustrie kaputt zu klagen) bis heute als Staatssekretär an prominenter Stelle in deutschen Ministerien sein Unwesen treiben darf. Zum gleichen Dunstkreis gehört auch Matthias Machnig, der im Bundesumweltministerium Staatssekretär war, als in Brüssel die Luftreinhaltungsrichtlinie beschlossen wurde, auf die sich die DUH bei ihren Klagen stützt. Interessanterweise ist es auch der gleiche Personenkreis, der bereits die Abwicklung der deutschen Stromkonzerne zugunsten der „Energiewende“ managte. Umso schwerer fällt es daher zu verstehen, was denn die Betriebsräte der Autobranche dazu treibt, mit einer solchen Organisation zu paktieren. Was man dort mit der Automobilbranche vorhat, kann sich doch jeder an fünf Fingern abzählen. Im Unterschied zu den Mitarbeitern bei Daimler, Bosch oder Audi muss sich niemand von diesen hohen Herrschaften Sorgen wegen Arbeitsplatz oder Rente machen. Diesen Leuten geht es um Ideologie – und ganz nebenher hat man ja auch nichts dagegen, wenn sich dadurch die Taschen füllen. Seltsamerweise scheinen derartige Recherchen nicht zum Aufgabengebiet der öffentlich gefütterten deutschen Sendeanstalten zu gehören. Das müssen die unterbezahlten Redakteure von lokalen Zeitungen ohne jegliche Unterstützung oder Anerkennung aus eigenem Antrieb erledigen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 5

Quellen

[CLEA] https://www.cleanenergy-project.de/stromtrassen-erdkabel-kosten-stromkunden-milliarden/

[ELMO] https://eike.institute/?s=Das+deutsche+Energiewende-Wunder%3A+Elektromobilit%C3%A4t+ganz+ohne+Strom

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GEHE] http://wordpress.gerdheld.de/?p=1667

[GREE] https://www.greentechmedia.com/articles/read/Is-There-Enough-Lithium-to-Maintain-the-Growth-of-the-Lithium-Ion-Battery-M

[HBEFA] HBEFA Version 3.3 Background Documentation Berne, 25. April 2017

[MAFI] http://www.stuttgarter-nachrichten.de/inhalt.umwelthilfe-in-ministerien-das-netzwerk-der-diesel-gegner.ce6d4b7e-2a2a-4379-87f9-70b5feeb5845.html

[STPL] http://fbinter.stadt-berlin.de/fb/index.jsp?loginkey=showMap&mapId=verkehr_strnetz@senstadt

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH




Deutschland wird seine Ziele bzgl. globaler Erwärmung wohl nicht erreichen…

Die deutsche Kanzlerin Angela Merkel steht am Sonntag vor ihrer Wiederwahl, aber der unbequeme Report der Gruppe Agora Energiewende zu den Zielen ihrer Regierung bzgl. globaler Erwärmung dürfte ihr trotz ihres Sieges ganz und gar nicht gefallen.

Aber man erwarte nicht, dass Merkel zurücksteckt. Tatsächlich sagte sie vor ein paar Tagen, dass ihre Regierung „Wege finden werde, um das Klimaziel 2020 zu erreichen“, worunter auch die fortgesetzte Schließung von Kohlekraftwerken fällt.

„Ich bezweifle, dass sich in Deutschland kurzfristig sehr viel ändern wird“, sagte Benny Peiser, Direktor der in UK ansässigen GWPF.

Trotz der Kosten „steht die große Mehrheit der Deutschen nach wie vor hinter der Energiewende“, sagte Peiser mit Verweis auf Deutschlands Transitions-Pläne.

Die „Energiewende“ ist nur ein Teil des deutschen Planes, seine Wirtschaft zu dekarbonisieren. Mittels der Energiewende hofft Deutschland, wegzukommen von fossilen Treibstoffen, vor allem Kohle, hin zu Solar- und Windenergie.

Agora Energiewende zufolge wird das Verfehlen der Emissionsziele „nicht nur knapp, sondern ein grandioses Scheitern sein“. 40% des in Deutschland im Jahre 2016 verbrauchten Stromes wurde mit Kohle erzeugt, wogegen Wind und Solar verblassen.

„Das Grüne-Energie-Fiasko ist jedoch in keiner Weise Wahlkampfthema – nicht zuletzt, weil es einen All-Parteien-Konsens gibt hinsichtlich von etwas, das sich als die katastrophalste Entscheidung von Angela Merkel herausstellen dürfte“, sagte Peiser. [Da hat er wohl noch nichts von der AfD gehört. Wie nannte es Herr Gauland so treffend: die „Konsensparteien“. Anm. d. Übers.]

Deutschland begann im Jahre 2011 mit der Subvention grüner Energiequellen nach der Havarie des Kernkraftwerkes in Fukushima. Merkel startete eine aggressive Verschiebung hin zu Solar- und Windenergie, um die Kernkraftwerke des Landes zu ersetzen.

Aber das kommt die Deutschen teuer zu stehen.

Bloomberg zufolge hat Deutschland während der letzten Jahrzehnte 780 Milliarden Dollar ausgegeben, und doch reicht das immer noch nicht aus, um das Land seinem nationalen Ziel nahezubringen, die CO2-Emissionen bis zum Jahr 2020 um 40% zu reduzieren. „Wir erwarten, dass die Kosten der Energiewende ab Anfang 2020 sinken werden – erneuerbare Energie durch neu errichtete Wind- und Solar sind jetzt die billigste Energiequelle in Deutschland“, sagte Christoph Podewils, Direktor bei Agora [wo hat er denn das her?! Anm. d. Übers.]. „Natürlich gibt es noch viele Unwägbarkeiten – Marktdesign, Vorschriften, Netzausbau und Erweiterung, Akzeptanz und Dekarbonisierung von Wärme und Transport – aber die Kosten spielen keine Rolle mehr“.

Allerdings fühlt der durchschnittliche Deutsche den Schmerz. Die Stromkosten sind dreimal so hoch wie in den USA, hauptsächlich wegen gestiegener Steuern auf Energie, um die Subventionen für grüne Energie stemmen zu können. Wärme ist so teuer geworden, dass sie „die zweite Miete“ genannt wird.

Die Industrie in Deutschland andererseits ist von den gesetzlich vorgeschriebenen Abgaben ausgenommen aus Angst, dass sie anderenfalls nicht mehr wettbewerbsfähig sind. Das bedeutet noch höhere Kosten für Bürger und den Mittelstand.

Deutschlands Emissionen liegen derzeit um 27% unter dem Niveau des Jahres 1990, was führend ist im Vergleich mit anderen europäischen Ländern, aber immer noch weit hinter dem zurückbleibt, was zur Erreichung des Zieles erforderlich ist.

Emissionen sind gesunken, während Kohlekraftwerke aufblühen. Kohle, besonders Braunkohle, ist eine billige Energiequelle in Deutschland, welches grüne Energiequellen subventioniert hat, damit diese wettbewerbsfähig bleiben. Kohle ist außerdem eine viel zuverlässigere Energiequelle, ist sie doch nicht von Wind und Sonne abhängig.

„Deutschlands CO2-Emissionen im Stromsektor sind seit 1995 nicht gesunken“, sagte Peiser. „Das Land wird fast mit Sicherheit seine Klimaziele bis 2020 weit verfehlen. Alles, was man mit den Erneuerbaren erreicht hat ist, die Null-Kohlenstoff-Kernenergie und die Niedrig-Kohlenstoff-Gasenergie aus dem Markt zu drängen, während die Erzeugung von Energie mittels Kohle zunehmend wettbewerbsfähig ist und aufblüht“.

Link: https://wattsupwiththat.com/2017/09/23/germany-probably-wont-meet-its-global-warming-goal-despite-shelling-out-800-billion-for-green-energy/

Übersetzt von Chris Frey EIKE




Globale Erwärmung: Wer sind jetzt die Leugner?

Nature Geoscience veröffentlichte Studie gibt vor, Maßnahmen der globalen Regierungen zur Reduktion des CO2-Ausstoßes zu stützen, um das Potential für globale Erwärmung während der nächsten 100 Jahre oder so abzumildern. Aber was die Studie in Wirklichkeit tut ist, praktisch jedes aktuelle Argument für radikale Maßnahmen gegen die Erwärmung zu untergraben.

12 führende Universitäten und Modelle der Regierung, auf welche sich die Prophezeiungen der Klimaerwärmung stützen, fehlerhaft sind.

„Es gab einfach nicht die beschleunigte Erwärmung nach dem Jahr 2000, die in den Modellen zu sehen war“, sagt Myles Allen, Professor für Geowissenschaften bei Oxford und einer der Autoren der Studie. „Aus den Beobachtungen geht das einfach nicht hervor“.

Und natürlich hat er recht. Wie wir hier schon oft geschrieben haben, scheint der so gefürchtete Trend der „globalen Erwärmung“ irgendwann um das Jahr 1998 zum Stehen gekommen zu sein. Wir wissen, dass das so ist, weil die Temperaturmessungen via Satelliten zeigen, dass es seitdem praktisch keine Änderung mehr gegeben hat. Und Satellitenmessungen sind die genauesten Messungen der gesamten Atmosphäre und nicht nur aus Teilen davon.

Den UN-Modellen zufolge hätte die Temperatur um das Jahr 1995 stark zu steigen beginnen sollen. Bis zu diesem Jahr sollten wir demnach einen Temperaturanstieg von fast 1°C erreicht haben, was in geologischen Zeiträumen gedacht ein extrem kurzer Zeitraum wäre. Es waren jene Modelle, aufgrund derer der Welt das Narrativ übergestülpt wurde, dass sich unsere globalen ökonomischen Prioritäten schleunigst ändern müssen.

Die Wirklichkeit: Praktisch keine Änderung der Temperatur. Schlicht und ergreifend: die Modelle sind falsch!

Und doch fahren die Befürworter des Dogmas der globalen Erwärmung ungebremst damit fort, die Karrieren wissenschaftlich Abtrünniger zu ruinieren und Beleidigungen zu verbreiten wie etwa die Skeptiker als „Leugner“ zu bezeichnen – womit all jene, die mit der Wissenschaft der globalen Erwärmung nicht übereinstimmen, mit „Leugnern“ des Holocausts gleichgestellt werden sollen – während sie selbst nur allzu offensichtliche Fakten über „Klimawandel“ leugnen.

Wie wir schon im Mai geschrieben hatten, hatte der Sunday Telegraph in UK berichtet, dass die Temperaturen Anfang dieses Jahres stark zurückgegangen waren, nachdem zuvor 2016 das „heißeste Jahr jemals“ aufgetreten war. Wie kann das sein? 2016 war ein El Nino-Jahr, die immer besonders warm ausfallen.

„Während der letzten Monate sind die globalen Temperaturen um über 0,6°C gefallen: genau wie es vor 17 Jahren nach einem ähnlich starken El Nino der Fall war“. Nicht nur das, denn trotz der doom-and-gloom-Prophezeiungen durch bezahlte „Wissenschafts“-Prognostiker ist das Eis sowohl in der Arktis als auch in Grönland in diesem Jahr gewachsen [teilweise rekordverdächtig, wie man hier erkennen kann {deutschsprachig!}. Anm. d. Übers.].

Die jüngsten Revisionen von Klimadaten gingen allesamt nur in eine Richtung: Ältere Daten wurden zu kühleren Temperaturen hinab korrigiert, während Temperaturen aus jüngerer Zeit nach oben korrigiert worden sind. In einer ordentlichen Statistik würde Rauschen nicht durchweg nur in eine Richtung zeigen.

Aus all dem folgt: es sieht verdächtig danach aus, als ob Wissenschafts-Statistiker, welche große, fette Schecks von Regierungen erhalten, jedes nur denkbare Interesse daran haben, den Gedanken einer unvermeidlichen und katastrophalen Erwärmung weiter zu verbreiten, oder, wenn man so will, Geschäftsbücher zu fälschen.

Link: https://www.thegwpf.com/global-warming-who-are-the-deniers-now/

Übersetzt von Chris Frey EIKE