Die Eisheiligen werden immer kälter, Vorschau auf 2017

So behauptete DWD-Vorstand Friedrich noch all die Jahre davor, dass
1) Die Eisheiligen in jüngster Zeit immer wärmer würden, sie seien bald zu Heißheiligen geworden, was die Presse dann gern zum Anlass nahm, um gleich von Schweißheiligen zu reden und
2) Überhaupt seien die Eisheiligen wegen der Klimaerwärmung bald gänzlich verschwunden.
Um diese Aussagen zu unterstreichen, wird meist auf das umfangreiche Archiv des Deutschen Wetterdienstes verwiesen. Das erweckt natürlich bei unseren unkritischen Medien Eindruck. Aber niemals wird irgendeine Temperaturgrafik gezeigt und schon gar nicht die Aussagen überprüft.
Wir wollen das im Voraus tun, damit der Leser weiß, worum es gehen wird ab dem 11.Mai und was wahr und falsch ist.
Wir wählen zur Betrachtung möglichst wärmeinselarme Stationen, also nicht Frankfurt-Land, denn die Station steht bekanntermaßen an den Landebahnen des Großflughafens im Strahle der 600 C heißen Abgase. In den Heizräumen unserer Häuser ist am Thermometer bekanntermaßen auch kein Eisheiliger feststellbar.
Die ersten beiden Grafiken beginnen 1985 und wir lassen Platz für den 2017er-Wert, damit der Leser die neuen Werte einordnen kann.

Grafik 1: Die fünf Eisheiligentage in Potsdam wurden seit 1985 eindeutig kälter. Das ist genau das Gegenteil dessen, was als Ankündigung der Eisheiligen in den Medien steht.


Die zweite Grafik kommt aus Dresden Klotzsche, genauso wie Potsdam eine offizielle Messstation des Deutschen Wetterdienstes. Herr Samuel Hochauf hat neben dem Temperaturmittel der fünf Tage in Blau auch noch die Maximaltemperaturen, die Minimumtemperaturen und auch die Minimumtemperaturen in Bodennähe (5cm) seit 1985 dargestellt bis 2015. Der fünf Tagesmittel der Eisheiligen für 2016 betrugen 12,88C, genau auf der Fortsetzung der blauen Linie. Die Grafik scheint zunächst etwas unübersichtlich, dem ungeübtem Betrachtet sei empfohlen, zunächst mit der blauen Betrachtung zu beginnen, das sind die üblichen Durchschnittstemperaturen der Eisheiligen seit 1985

Grafik 2: DWD-Station Dresden Klotzsche. Man betrachte zunächst Blau: In Blau sind die fünf Eisheiligentagesmittel dargestellt. In Braun die Tages-Maximaltemperaturen, in Grau die Minimaltemperaturen und in Gelb die Minimumtemperaturen in 5 cm-Bodennähe.


Auswertung: Die Minimumtemperaturen (gelb) in Bodennähe sind die kältesten und die Maximumtemperaturen (braun) die wärmsten. Wichtiger ist der Blick auf die Trendlinien: Die Trendlinien sind sich sehr ähnlich, sie sind nur parallel verschoben. Im Gegensatz zu manchen Vermutungen scheint es unwesentlich zu sein, welche Temperatur der Eisheiligen dargestellt werden. Alle vier Trendlinien zeigen, dass die Eisheiligen seit 1985 kälter und nicht wärmer wurden. Alle vier Trendlinien zeigen, dass die Aussagen der DWD-Führungsriege falsch sind. Die Eisheiligen werden kälter in Deutschland.
Und schließlich Goldbach bei Bischofswerda, die Klimastation gibt es erst seit 1996, aber auch dort werden die Eisheiligen kälter. Die ungenauen Angaben der DWD-Vorstände mit „in jüngster Zeit“ oder „in der „Gegenwart“, könnte man vielleicht die letzten 20 Jahre meinen. Aber auch in jüngster Zeit ist das Ergebnis eindeutig, die Eisheiligen werden kälter. Je kürzer der Betrachtungszeitraum, desto fallender die Trendlinien. Fallende Temperaturtrendlinien sind das genaue Gegenteil von Erwärmung. Und damit können die Eisheiligen in jüngster Zeit auch nicht zu Heißheiligen geworden sein. Wir bitten die Leser, bei entsprechenden Falschmeldungen sofort bei ihren Tageszeitungen aktiv zu werden.

Grafik 3: Auch in dem kleinen Ort Goldbach werden die Eisheiligen in der Gegenwart kälter. Man darf gespannt sein, wo sich 2017 einordnet.


Dieses Jahr erwarten wir von DWD Vorstand Friedrich vor dem 11. Mai folgende Eisheiligen-Pressemitteilungen: „ Der Monat Mai wird kälter, aber die Eisheiligen werden noch kälter.“ Und als Ergänzung: Die Eisheiligen werden bald wieder so kalt sein wie um die Jahrhundertmitte als die damaligen Klimaforscher eine neue Eiszeit befürchteten. Das war vor 60 Jahren.
Was könnten die Gründe sein für das Kälter werden der Eisheiligen seit über 20 Jahren?
Wir wissen, dass unter anderem die Sonnenaktivität die Häufigkeitsverhältnisse der Großwetterlagen (GWL) beeinflusst; auch die AMO könnte hierbei eine Rolle spielen. Die seit 2 Jahrzehnten nachlassende Sonnenaktivität mit der (noch) bestehenden AMO- Warmphase scheint zu Witterungsextremen neigende Meridionallagen, welche im Frühling ohnehin besonders häufig auftreten, zu begünstigen, während die ausgleichend wirkenden Zonallagen (Westwetterlagen) seltener werden. Im „Horror- Frühling“ 2017 mussten wir das schon reichlich erleben – erst die angenehme Wärme bei Südwetter Ende März/Anfang April; dann die Nordlagen mit Horrorkälte, Schnee und schweren Spätfrostschäden ab Mitte April. Bei einer typischen „Eisheiligen-Lage“ befindet sich ein Hochdruckgebiet über den Britischen Inseln, der Nordsee und/oder dem Nordmeer; manchmal dehnt es sich bis nach Skandinavien aus. Zwischen ihm und tieferem Luftdruck über Ost- und Südeuropa fließt dann arktische Luft nach Deutschland, die bei nächtlichem Aufklaren oft noch Fröste verursacht. Auch 2017 besteht diese Gefahr; zum Zeitpunkt der Fertigstellung dieses Beitrages am 3.Mai war die Sicherheit der Mittelfrist-Prognosen aber noch ungenügend. Eine typische Eisheiligen-Lage erlebten wir 2016:

Abbildung 1: Nordlage am 14. Mai 2016. Tagsüber wurden kaum mehr als 10 bis 13 Grad erreicht; in den Mittelgebirgen gab es Schnee- und im Flachland Graupelschauer. Größere Frostschäden blieben aber aus, weil die Luftmasse (Arktische Meeresluft) relativ wolkenreich und der Wind stark war, so dass die nächtliche Abkühlung moderat ausfiel.


In dem hier gewählten kurzen Untersuchungszeitraum ab 1985, welcher wegen der starken Streuung der Häufigkeiten der Großwetterlagen keine signifikanten Aussagen zulässt, nahm die Häufigkeit der Nordlagen im Mai leicht zu, was eine höhere Wahrscheinlichkeit für deren Auftreten auch im Mai bedeutet:

Grafik 4: Seit 1985 nahm die Häufigkeit der Nordwetterlagen (hier die Objektive Wetterlagenklassifikation des DWD) im Mai leicht (nicht signifikant) zu. Im ungemütlichen Mai 1991 herrschte an 20 Tagen „Nordwetter“, was „Dauer- Eisheilige“ zur Folge hatte; es musste den ganzen Monat hindurch geheizt werden.


Für längerfristige Betrachtungen stehen seit 1881 nur die GWL nach HESS/BREZOWSKY zur Verfügung:

Grafik 5: Die Häufigkeit des „Nordwetters“ im Mai schwankte enorm; doch auch bei dieser langfristigen Betrachtung erkennt man eine Häufigkeitszunahme ab etwa 2010, was auch die Wahrscheinlichkeit für „Eisheiligen- Ereignisse“ wieder erhöht; ob diese unerfreuliche Entwicklung anhält, muss aber noch abgewartet werden.


Und am Ende zeigt sich: Die stetig steigende CO2- Konzentration vermag unser Klima auch im Mai nicht zu erwärmen und kann die Plage der „Eisheiligen“, den Horror aller Gärtner und Landwirte, nicht verhindern.
Fazit: Kaltluftvorstöße im Mai, welche bevorzugt (aber nicht immer) um die Eisheiligen auftreten, werden immer kälter.
Josef Kowatsch, unabhängiger, weil unbezahlter Natur- und Klimaforscher
Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Offensicht­licher Bias in den Medien bzgl. Klima

Das Ereignis war die Anhörung vor dem Wissenschaftskomitee des Weißen Hauses vom 29.März unter dem Motto: „Klimawissenschaft: Hypothesen, politische Implikationen und wissenschaftliche Verfahren“. Das Unterfangen ist das ausgreifende Projekt des Heartland Institutes für Lehrer der Naturwissenschaften im ganzen Land. Dabei versendet Heartland Ausgaben der Broschüre „Warum Wissenschaftler hinsichtlich globaler Erwärmung uneinig sind“, verfasst von drei angesehenen Klimawissenschaftlern, an über 200.000 Lehrer der Naturwissenschaften an Middle und High Schools.

Man verstehe mich nicht falsch. Ich bin keineswegs überrascht, dass all jene erklärtermaßen links gerichteten Verteidigungs-Publikationen wie die Huffington Post – „Kongressabgeordneter der Republikaner macht das Wissenschaftskomitee zu einer Plattform für seine eigenen wissenschaftlichen Ansichten“ (März 2017) – und Mother Jones – „Ein Wissenschaftler brachte 2 geschlagene Stunden damit zu, mit den größten Leugnern der globalen Erwärmung im Kongress zu diskutieren“ (29.März 2017) – ihre Berichterstattung gegen Klimarealismus verzerren.

Washington Post und Scientific American [und man kann ganz sicher auch die Süddeutsche Zeitung dazu zählen, Anm. d. Übers.] mit den Fakten Schindluder treiben, bin ich aus irgendwelchen Gründen enttäuscht, und mein Zorn kocht hoch – selbst wenn ich weiß, dass diese Organe das schon seit Jahren machen.

Klingt vernünftig, oder? Schließlich ist der Austausch von Gedanken bzgl. überprüfbarer Hypothesen, Daten und Methoden der Datenerfassung zentraler Bestandteil der wissenschaftlichen Methode, nicht wahr? Die Reaktion der Post war, die Bildungsoffensive eine „Propaganda-Kampagne“ zu nennen.

Weiter unten in der Story beschreibt die Post die Zeugen bei der Anhörung folgerichtig so: „Das Komitee hat drei Personen geladen, welche die mit überwältigender Mehrheit akzeptierte Wissenschaft vom Klimawandel zurückweisen, sowie einen aktiven Klimaforscher“. Diese Darstellung ist gröblichst irreführend.

Erstens, jede dieser vom Komitee gehörten Personen ist – oder war bis vor Kurzem wie im Falle Roger Pielke – ein aktiver Klimaforscher. (Pielke hat sich aufgrund politischen Drucks im Jahre 2015 aus der Klimaforschung zurückgezogen). Jeder Einzelne hat hunderte begutachteter Artikel mit Bezug zu Klima veröffentlicht und an der Arbeit des IPCC oder der NASA oder des NCAR teilgehabt. Mit anderen Worten, alle Aussagenden befanden sich im Zentrum von Mainstream-Klimaforschungs-Institutionen.

Außerdem glauben sie alle an den Klimawandel – wer tut das nicht? Sie „weisen nicht die mit überwältigender Mehrheit akzeptierte Wissenschaft vom Klimawandel zurück“ – sondern sie weisen zurück, dass eine solche überwältigend akzeptierte Wissenschaft überhaupt besteht. Ihre Forschungen sowie die Forschungen tausender anderer Wissenschaftler auf der ganzen Welt zeigen, dass die Wissenschaft eben nicht settled ist. Vielmehr gibt es eine aktive, lebendige Debatte über das Ausmaß des menschlichen Einflusses auf das Klima und die möglichen Auswirkungen des Klimawandels auf die menschliche Gesellschaft und die Umwelt.

Der Aufstieg von Donald Trump und das Aufkommen alternativer Medienportale haben einen fast tödlichen Würgegriff der radikalen Linken nebst ihren Alliierten in den Medien auf das Klima-Narrativ durchbrochen. Diese Linken werden rot vor Wut, schnappen nach Luft und finden keine Atempause. Sie haben einfach keine Ahnung, was sie machen sollen, außer mit ihren Füßen zu stampfen und all jene, die ihnen nicht folgen, mit Ausdrücken wie „Leugner“, „Scharlatane“ und „bezahlte Schergen“ zu belegen.

H. Sterling Burnett
Washington Post und Judith Curry
Übersetzt von Chris Frey EIKE




Zahlen lügen nicht: Deutsch­lands Energie­wende hatte Null Auswir­kungen auf Emissionen – bestenfalls

Man hört regelmäßig Kommentare des Inhalts, dass die USA dasjenige Land sind, welches am meisten von Klima-Kontrarians betroffen ist und dass diese Debatte in anderen Teilen der Welt (vor allem in Europa) gar nicht existiert. Dort herrscht Konsens hinsichtlich der Notwendigkeit zu handeln, usw. Ein deutscher Staatsbürger dazu:

Unter den 97% der Wissenschaftler, die bzgl. der Grundlagen übereinstimmen, sind viele konservative Wissenschaftler. Dass es da ein Problem gibt, ist keine parteiische Angelegenheit. Wie man es löst, ist Sache der Politik. Das Pariser Klima-Abkommen wurde von fast 200 Ländern unterzeichnet und folglich von vielen konservativen Regierungen. Sie akzeptieren, dass Klimawandel ein reales Problem ist. Europäische konservative Parteien mögen weniger aktiv sein, leugnen aber nicht, dass es ein Problem gibt. In Europa leugnen nur ,Trumpische‘ rassistische Parteien dieses Problem. Dass die Klima-„Debatte“ zumeist ein amerikanisches Problem ist zeigt, dass es bei dem Problem nicht um konservativ vs. liberal geht, dass es nicht um das Fehlen wissenschaftlicher Beweise geht und dass es kein Problem der Kommunikation von Wissenschaft ist. Das Problem ist der korrumpierende Einfluss des Geldes in der US-Politik und den US-Medien.

Ich nehme ihn beim Wort.

Deutschland ist das Land mit dem stärksten Konsens um die Notwendigkeit, ,etwas‘ zu tun bzgl. Klimawandel. Keine andere Nation hat einen Plan eingesetzt, der so ambitioniert ist wie die Energiewende [hoch interessant, was Wikipedia Englisch zum deutschen Terminus ,Energiewende‘ schreibt. Anm. d. Übers.] Das Programm begann im Jahre 2000 und setzte eine Objektive bis zum Jahr 2050 – obwohl bizarrerweise, wie es üblich ist bei diesen ,Programmen‘ und ,Roadmaps‘, die Objektive in Gestalt absoluter Treibhausgas-Emissionen angegeben wird anstatt in Emissions-Intensität der Wirtschaft. Das Problem ist einfach zu erfassen:

a) Falls Emissionen im Jahre 2050 höher sind als geplant, werden Befürworter behaupten, dass es dazu kam, weil das ökonomische Wachstum stärker als erwartet war. Mit anderen Worten: Befürworter könnten behaupten, Klimapolitik sei erfolgreich gewesen, weil die Emissionen geringer waren als ohne ein solches Programm. Natürlich haben Befürworter von Emissionskürzungen nie klargestellt, wie viel ökonomisches Wachstum sie überhaupt erwarten, so dass diese Behauptung in keinem Falle falsifizierbar ist.

b) Falls die Emissionen bis 2050 gleich oder geringer sind als im Plan vorgesehen, werden deren Befürworter das Programm als erfolgreich darstellen – obwohl die Abnahme der Emissionen in Wirklichkeit ökonomischen Krisen und/oder einem Rückgang der Bevölkerung geschuldet sein kann.

Ich möchte nicht wiederholend klingen, aber die einzige sinnvolle Maßzahl ist die Emissions-Intensität des BIP und hier im Einzelnen, wie stark diese Intensität pro Jahr abnimmt. In diesem Beitrag werde ich eine positive Zahl zeigen, d. h. wie viel mehr BIP-Dollars pro Tonne CO2-Emissionen wir bekommen durch Verbrennung, sind doch Emissionen von Methan, Ozon, N20 und CO2 durch Landverbrauch höchst unsicher.

Wie auch immer, kommen wir zurück zur Energiewende. Wir sind jetzt zu einem Drittel mit dem Programm durch. Falls er also irgendwelche Auswirkungen haben sollte, müssten wir jetzt sehen, dass…:
a)…die Rate der Dekarbonisierung in Deutschland höher ist als im Zeitraum zuvor.

b)…die Rate höher ist als in anderen Ländern, welche sich vermutlich nicht so sehr um Klima-Maßnahmen kümmern. Im Vergleich zu den USA könnte dieser Unterschied erheblich sein.

Die folgende Graphik zeigt die Dekarbonisierung in den USA seit 1966, liegen doch Emissionsdaten erst seit 1965 vor. Wir können Gleiches für Deutschland seit dem Jahr 1971 sehen mit Beginn von Datenreihen des BIP des Landes – zumindest auf der Website der Weltbank:

Hoppla: Die Rate der Abnahme in Deutschland ist nicht nur die Gleiche wie in den USA, sondern liegt niedriger als vorher!

Genauer: das Mittel der Jahre 2000 bis 2015 beträgt für Deutschland 2,06% und für die USA 2,26%. Von 1971 bis 1999 liegt das Mittel in Deutschland bei 3,13%. Aber diese Zahlen werden aufgebläht durch sehr starke Zunahme während der Jahre 1989 bis 1992, als in der ehemals kommunistische Ökonomie Ostdeutschlands die meisten CO2-intensiven Betriebe außer Betrieb gingen (was kaum Auswirkungen auf das BIP hatte). Lässt man diese vier Jahre außen vor, liegt das Vor-Energiewende-Mittel von Deutschland immer noch bei 2,58% oder ein wenig höher als im Jahre 2000 – obwohl man erwähnen muss, dass den Zahlen der siebziger Jahre durch hohe Ölpreise ,nachgeholfen‘ worden ist.

Ich denke, das Beste, was man sagen kann ist, dass die Dekarbonisierungs-Rate von Deutschland etwa die Gleiche ist wie zuvor.

Um es ganz klar zu sagen: eine höhere Rate der Dekarbonisierung ist das Minimum, was man von einer Klimapolitik erwarten muss. Sie ist notwendig, aber nicht ausreichend, weil es jener Politik immer noch möglich ist, so viel zu kosten, wie es die Reduktion von Emissionen nicht wert ist. Man sollte nicht automatisch eine höhere Dekarbonisierungsrate für besser halten als eine niedrigere. Mit anderen Worten, man muss die Kosteneffektivität berücksichtigen – wie es mit allen Dingen der Fall ist, für die wir Geld ausgeben.

In Deutschland gibt es keinen Grund, über die Kosteneffektivität der Klimapolitik zu debattieren, weil deren Effektivität im besten Falle Null ist.

Befürworter von Emissionskürzungen folgen ihren eigenen Ansichten und nicht ihren eigenen Fakten. Falls jemand geltend machen will, dass Klimapolitik tatsächlich erfolgreich war, ob nun in Deutschland oder weltweit, muss Fehler in den Zahlen finden, welche die Weltbank und BP verbreiten. Falls die Daten bzgl. Verbrennung fossiler Treibstoffe signifikant falsch wären, wäre das eine dicke Schlagzeile. Falls die Daten des deutschen BIP-Wachstums (oder das der Welt) signifikant falsch wären, wäre das eine gewaltige Nachricht.

Folglich ist es sehr einfach zu beweisen, dass die Klimapolitik erfolgreich war: man weise die Zahlen als falsch nach.

Man könnte einen Nobelpreis gewinnen.

Link: https://wattsupwiththat.com/2017/05/02/numbers-dont-lie-germanys-energiewende-has-had-zero-impact-on-emissions-at-best/
Übersetzt von Chris Frey EIKE




Rundbrief der GWPF von Ende April – Energie

Eingeschaltet: der neueste Tokamak Fusions-Reaktor in UK

Die in Oxfordshire ansässige Firma Tokamak Energy hat zum ersten Mal ihren jüngsten Fusionsreaktor angeschaltet und will erreichen, dass er im nächsten Jahr 100 Millionen Grad Celsius erreicht. Bekannt unter der Bezeichnung ST40 repräsentiert der Reaktor den dritten von fünf Schritten auf dem Plan des Unternehmens, bis zum Jahr 2030 die erste Fusionsenergie in das Netz zu speisen.

Kontrollierte Fusion erfordert Temperaturen über 100 Millionen Grad Celsius, aber ein privat finanziertes Unternehmen hat dieses Ziel noch nie erreicht. Um diesmal erfolgreich zu sein konzentriert man sich bei Tokamak Energy auf kompakte, sphärische Tokamak-Reaktoren, glaubt man doch, dass diese schneller zu entwickeln sind und den schnellsten Weg zu kommerzieller Fusionsenergie bieten. The Engineer, 28. April 2017

Der erste kommerzielle Fusionsreaktor nimmt erste Hürden zur Energieerzeugung

Der neueste Fusionsreaktor ist eingeschaltet worden und hat UK einen Schritt weiter gebracht zur Stromerzeugung mit der Energie der Sterne. Man erwartet, dass das Kernstück des Tokamak ST40-Reaktors – eine superheiße Wolke elektrisch geladenen Gases oder Plasma – bis zum Jahr 2018 eine Temperatur von 100 Millionen Grad Celsius erreicht. Der neue Reaktor wurde in Milton Park in Oxfordshire von der Firma Tokamak Energy gebaut, einem privaten Unternehmen, welches Pionierarbeit leistet zur Entwicklung von Fusionsenergie in UK und der Welt. Wir enthüllen die erste Weltklasse-Anlage zur kontrollierten Fusion, gebaut und betrieben von einem privaten Unternehmen. Die ST40 ist eine Maschine, welche zeigen wird, dass Fusionstemperaturen – 100 Millionen Grad – in kompakten, kosteneffektiven Reaktoren erreicht werden können. Dies wird es gestatten, Fusionsenergie in Jahren und nicht Jahrzehnten zu bekommen. Energy Voice, 28. April 2017

Wir alle sind Opfer des Großen Grünen Schwindels

Unsere Besessenheit, Kohlenstoff-Emissionen zu reduzieren, hat schreckliche Konsequenzen gezeitigt. Unsere Versuche, altruistisch zu sein, haben den Verwundbarsten viel eher Schaden zugefügt als ihnen zu helfen. Fast genauso schlimm ist, dass jene 11 Millionen Menschen, die derzeit ein Dieselfahrzeug fahren, bestraft werden, weil sie vor einem Jahrzehnt dem Ratschlag der Regierung gefolgt waren, dass Dieselfahrzeuge helfen würden, die CO2-Emissionen des Landes zu reduzieren. Es sind die Autohersteller, die nach wie vor höchste Profite durch diesen großen grünen Schwindel einstreichen – die Verbraucher sind es mit Sicherheit nicht. Politische Berater in Downing Street weisen darauf hin, dass Theresa May auf der Seite der Verbraucher steht und skeptisch ist hinsichtlich der jüngsten, überaus einträglichen Umweltmarotte. Im vorigen Jahr hat der Stabschef der Premierministerin den Climate Change Act, welcher die Wurzel eines großen Teils dieser fehlgeleiteten Politik war, ein „monströses Gesetz nationaler Selbstbeschädigung“ genannt. Er hatte recht. Sobald die Wahl vorüber ist, braucht UK eine koordinierte Energie-Strategie und einen neuen Clean Air Act, um die Umwelt zu schützen und das Vertrauen in die Politik der Regierung wiederherzustellen. – Alice Thomson, The Times, 26. April 2017

Energiepolitik während der ersten 100 Tage von Präsident Trump

Der 29. April markiert das Ende der ersten 100 Tage von Donald Trump als Präsident. Er viele bedeutende Maßnahmen im Bereich Energie- und Klimapolitik ergriffen und scheint auf diesem Weg weiterzugehen. Was aber natürlich wirklich zählt ist, was er während der nächsten zwei bis vier Jahre erreicht und wie viel seiner Energie-Agenda danach noch in kraft ist. Journalisten und und Kritiker fahren fort, Präsidenten bzgl. ihrer ersten 100 Tage zu vergleichen, teils wegen des Einflusses von Pro-New-Deal-Historikern [?], welche jene Metrik popularisieren, um sicherzustellen, dass frühe legislative Leistungen immer als sehr eindrucksvoll erscheinen. Damit hat sich Präsident Trump selbst als ein großer Erfolgstyp bzgl. Politik erwiesen, welcher seinen wirtschaftlichen Erfolgen in nichts nachsteht. – Marlo Lewis Jr, Competitive Enterprise Institute, 25. April 2017

Der Preis von Europas grüner Narretei: Gazprom weidet sich an seiner Dominanz in Europa

Den neuesten Nachrichten zufolge sicherte die Nord Stream-Pipeline 2 von Gazprom 50% seiner Finanzierung durch Darlehen/Kredite [loans] von fünf europäischen Unternehmen. Der Generaldirektor des in Staatsbesitz befindlichen Unternehmens verhehlte seine Freude nicht. „Heute brechen wir unseren Rekord aus dem Jahr 2016 um 10 Prozent. Daher können wir in diesem Jahr neue Rekorde erwarten, und der Marktanteil von Gazprom in Europa sieht einem weiteren Anstieg entgegen“, sagte Alexej Miller in einem Interview mit Reuters. Miller hat da nicht ganz unrecht. Egal wie stark Europa dafür agitiert hat, von russischem Gas unabhängig zu werden, hat der Kontinent in Wirklichkeit seine Abhängigkeit von Gazprom seit der Annexion der Krim erhöht. Gazprom hält die Trumpfkarte in dieser Beziehung, hat es doch seine Fähigkeit und seinen Willen gezeigt, seine Versorgung im Mittwinter einzustellen, um seinem Ärger über seine Verbraucher Ausdruck zu verleihen. The American Interest, 27. April 2017

Übersetzt von Chris Frey EIKE




Elektroautos und Microsoft, der Beginn einer Erfolgs­geschichte

Beschreibung der SZ zum BMW i3 Vorgängertyp: … diesem Akku gingen nämlich oft schon knapp jenseits der 100-Kilometer-Marke die Reserven aus. Bei winterlicher Kälte sogar deutlich früher
Doch nun ist alles besser geworden. Der Neue kann inzwischen alles (was man laut der SZ braucht), zumindest sei die Reichweitenanzeige (endlich) verlässlich. Zum Laden benötigt er daheim 9:30 Stunden, an einer öffentlichen Leistungstankstelle 2:45 Stunden und an einer der ganz wenigen Super-Schnelladesäulen 40 Minuten – wobei sich das Letzte ein stolzer Besitzer gut überlegen wird, denn darunter leidet die Batterie-Lebensdauer – und ganz voll wird sie dabei vorsichtshalber auch nicht.
Die Gefahr, dass die in Deutschland seitens unserer Regierung geplanten, eine Millionen Elektroautos liegengeblieben die Standstreifen der Autobahnen oder die Parkflächen der Rastanlagen beim Warten auf Stromzugang belegen, braucht man sich nicht zu machen, denn die Empfehlung lautet: … auf Autobahnen ist der i 3 aber deplatziert. Hohe Geschwindigkeiten strapazieren die Batterie einfach viel zu stark ...
Allerdings darf man auf der Autobahn auch langsam fahren, sofern es einen triftigen Grund dafür gibt. Und „Reichweitenangst“ (siehe EIKE: Reichweitenangst, die neue Volkskrankheit) werden alle Psychologen dazu erklären, womit die Gefahr der Fahrspurbelegung durch in „Traktorengeschwindigkeit“ dahin schleichender Elektroautos nicht ganz gebannt ist und die bald bei uns „fehlenden“ Holländer [1] auf den Autobahnen doch noch pünktlich genug „ersetzen“ kann:
Auto Zeitung: Autobahn-Mindestgeschwindigkeit: Wie langsam ist erlaubt?
Es ist ein weit verbreiteter Irrtum, dass auf Autobahnen eine festgelegte Mindestgeschwindigkeit herrscht. Die Straßenverkehrsordnung schreibt lediglich vor, dass Autobahnen nur von Fahrzeugen benutzt werden dürfen, die baulich in der Lage sind, schneller als 60 km/h zu fahren.
Das bedeutet jedoch nicht, dass man auch mit einem schnelleren Fahrzeug beliebig vor sich hinschleichen darf. Wer nämlich ohne triftigen Grund langsam fährt und dadurch andere Verkehrsteilnehmer behindert, verstößt gegen die Straßenverkehrsordnung.

Eine Zukunftsvision (des Autors) vermutet deshalb, dass mobile (Diesel-betriebene?) Ladestationen bald die omnipräsenten DIXI-Klos im Straßenbild ablösen könnten.
Doch zum eigentlichen Thema
Ältere werden sich noch erinnern, wie man zu Beginn der Microsoft-Zeit mit DOS-Betriebssystem immer sehnsüchtig auf ein neues Update wartete, da immer noch (zu) viele Funktionen fehlten. Elektroautos wiederholen gerade diese einzigartige Erfolgsgeschichte:
SZ: „ … Vernünftiger ist es aber, bis 2018 zu warten. Denn dann, so heißt es jedenfalls, soll ein weiteres Batterie-Update eine Norm-Reichweite von bis zu 450 Kilometern ermöglichen.
Und so, wie man sich damals teils mit Fremdprogrammen zwischenzeitlich behelfen musste, ist es auch beim Elektroauto:
SZ: „Wer seine Sorgen dennoch nicht los wird, ergänzt den i 3 mit einem Range Extender, einem Benzinmotor, der die Batterie auflädt. Dann kostet der BMW allerdings ... „
Man versteht auf einmal, warum Vorstände wie der Daimler-Chef den (zwangs-)Umbruch so enthusiastisch begrüßen:
EIKE: Freunde, wollen wir trinken, auf die schöne kurze Zeit … und auch die Autobauer wollen die Transformation in die CO2-freie Zukunft
Diese Gelegenheit, nicht ausreichende Eigenschaften verkaufen zu dürfen und Kunden dazu zu bringen, ihr Produkt, bevor es regulär unbrauchbar wird, laufend zu erneuern, dies aber als Innovation zu preisen, bot sich bisher nur in der Softwarebranche. Nur da (wenn die SW ein eigenes Produkt ist) sind Mängel nicht nachbesserungspflichtig – sonst wäre Bill Gates schon nach den ersten Wochenenden seiner DOS-Garagenbastelei pleite gewesen.
Jedenfalls ist dank Elektroautos endlich das Autobauer-Paradies in Reichweite: Das Auto-Ende lässt sich vom Hersteller über Updates der Batteriesätze steuern.
Als Lösung wird unserer Regierung aber etwas einfallen: Es könnte zum Beispiel sein, dass Elektroautos als Sperrmüll entsorgt werden dürfen.
Und abwarten, der Softwareanteil im Auto wird auch immer höher – das Spiel mit dem Updatezwang und nicht mehr möglicher Hochrüstung kann sich dann nochmals wiederholen.
Quellen
[1] FOCUS: Ab 2025 nur noch Elektroautos Niederlande wollen Verkauf von Diesel- und Benzinautos verbieten
[2] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit