Strom zu Wärme: Oder wie man mit dem Schinken nach der Wurst wirft

Gemeint sind die Umwandlung von Elektrizität in Wärme, Gas oder flüssige Treib- oder Kraftstoffe. Diese als Zukunftstechnologien bezeichneten und mit großen Erwartungen belasteten Verfahren haben allesamt zur Grundlage, dass eines Tages billiger Strom im Überfluss vorhanden sein würde, den man in dieser Art dann nutzen kann.
Technologisch gesehen ist P2H (Power-to-Heat) die einfachste Form, Strom in eine andere Energieform zu wandeln. Vermutlich finden sich in jedem Haushalt Tauchsieder oder ähnliche Geräte, die mit einem einfachen ohmschen Widerstand den Strom zu Wärme werden lassen. Der Umwandlungswirkungsgrad ist mit 100 Prozent ideal.

P2G (Power-to-Gas) ist wesentlich komplizierter und vor allem hinsichtlich des niedrigen Wirkungsgrades problematisch. Die besten Elektrolyseure erreichen einen Wirkungsgrad von 72 Prozent wie in der jüngst in Hamburg eingeweihten 1,5-Megawatt-Anlage. Wie bei Versuchsanlagen üblich, stehen Investitionen und Ertrag nicht in einem wirtschaftlich sinnvollen Verhältnis, welches sich bei eventueller Rückverstromung des Wasserstoffs nochmals drastisch verschlechtert und damit jegliche Überlegungen zu großindustriellem Einsatz obsolet werden lässt.

Mehr als ein Dutzend Versuchs- und Pilotanlagen gasen inzwischen im Land vor sich hin. Es fehlen Renditeaussichten und Rahmenbedingungen, die die Stromspeicherung im Vergleich zum Direktverbrauch anreizen. Mithin mangelt es an einer weiteren umfangreichen Subventionierung.

Auch beim Power-to-Liquid (P2L) dürfte die Kostenkalkulation die großtechnische Anwendung verhindern, zumindest solange die Öl- und Gaspreise weltweit nicht einen großen Höhenflug antreten.

Grundsätzlich ist elektrischer Strom die wertvollste Energieform.

Der Aufwand, ihn zu gewinnen, zu transformieren, zu transportieren und zu verteilen, ist aufwändig und teuer. Die Wandlung von Wärme in Strom (Wärmekraftwerke) oder von Gas in Strom (Gaskraftwerk oder Brennstoffzelle) ist ungleich komplizierter.

Ihn in Wärme niedriger Temperatur wie Heizwärme, in Gas oder Kraftstoff zu verwandeln, kommt einer Abwertung oder Degradierung gleich.

Die unabdingbare Voraussetzung wäre ohnehin, dass hohe wetterbedingte Stromeinspeisung tatsächlich zu sehr niedrigen Preisen führen. Wir erinnern uns an die oft wiederholte These, dass bei weiterem „mutigen“ und „entschlossenem“ Ausbau der Erneuerbaren der Strom dann ganz billig werden würde. Hier habe ich dazu überschlägig berechnet, dass großes Stromaufkommen aus Erneuerbaren den Strom auf Grund der festen Einspeisevergütungen teurer statt billiger macht und geschrieben:

„Auf welcher wirtschaftlichen Grundlage soll ein Versorgungsunternehmen den Kunden zu Zeiten hohen wetterbedingten Stromangebots ein preislich vorteilhaftes Angebot machen? Ursache dieser marktfernen Konstellation ist das EEG mit festen Vergütungen. Nur mit weiteren Subventionen wäre ein „smartes“ Strompreismodell machbar.“

Naturgemäß freut sich jeder Autor, wenn seine Thesen durch die Praxis bestätigt werden. Aber freuen kann sich niemand, wenn Ressourcen durch eine gestümperte Energiewende verschwendet werden. Die Auswirkung dieser politischen Fehlsteuerung zeigt sich aktuell hier (3:12, sehr sehenswert). Kurz zusammengefasst:

 

Nicht nur heute bleibt der Boiler kalt.

Die vor drei Jahren eingeweihte und von den Stadtwerken Neumünster betreute P2H-Anlage wird nicht betrieben. Grund dafür ist, dass der umzuwandelnde Strom voll bezahlt werden muss, um den Windmüllern ihre gesetzlich verbriefte Einspeisevergütung zu sichern. Diese denken natürlich nicht daran, den Strom billiger abzugeben und wirtschaften besser, wenn sie sich bei Überangebot die Anlagen abschalten lassen und dennoch die fast volle Vergütung kassieren. „Strom zu Wärme“ (und damit könnte erst die beabsichtigte Sektorkopplung auf den Weg gebracht werden), würde erfordern, dass Fernwärmeversorger entsprechend hohe Umlagen zahlen. Dadurch wären sie aber nicht mehr konkurrenzfähig gegenüber den Verbrennungsprozessen anderer Energieträger, die oft den Vorteil der Kraft-Wärme-Kopplung mitbringen.

Wenn selbst eine verhinderte grüne Lichtgestalt in Person des nordischen „Energiewendeministers“ Robert Habeck den Auswirkungen des EEG nahezu hilflos ausgeliefert ist, hält sich das Mitleid in Grenzen. Alle Zukunftsversprechen zu einem Smartgrid, das dazu führt, bei hohem Windaufkommen billigen Strom zu erhalten, scheitern sichtbar an der Marktferne des EEG. Es kann auf seiner Basis keinen Markt geben und damit auch keine Perspektive für eine Sektorkopplung. Dabei haben wir von erforderlichen Stromspeicherkapazitäten und -kosten noch gar nicht gesprochen.

Geht man davon aus, dass das EEG das Kernstück unserer Energiewende ist, dann ist diese nicht nur mit Naturgesetzen, sondern auch mit wirtschaftlicher Logik nicht kompatibel. Ein rigoroser Umbau oder eine Abschaffung des EEG würde aber auch bedeuten, dass generell die Energiewende in dieser Form gescheitert ist.

Die Windstromerzeugung hat strukturell inhärent ein Problem mit Marktbedingungen: Die große Anzahl von Anlagen führt zu geballter Produktion bei entsprechendem Wetter. In logischer Marktreaktion fallen bei hohem Angebot die Preise. Deshalb werden sich Windkraftanlagen auch künftig nicht unter Marktbedingungen rentabel betreiben lassen, da ihre laufenden Kosten durch die dann niedrigen Einnahmen nicht gedeckt werden können. Das EEG ist keine Brücke auf dem Weg in den Markt, sondern der Prellbock, auf den die Energiewende in der vorhandenen Form auflaufen wird.

 

Wind und Sonne sind unschuldig.

Da keine der jetzigen und künftigen Regierungsparteien den Mut haben wird, dem überlebten EEG den Gnadenstoß zu versetzen, steigt die Dramatik ab dem Jahr 2021, wenn erste Anlagen in großer Zahl aus der Förderung fallen. Wir erinnern uns an das neu geschaffene EEG im Jahr 2000, das die 20-jährige Förderdauer festschrieb und ausdehnte auf Anlagen, die schon in den Neunzigern gebaut wurden und somit für 20 plus X Jahre in den Genuss der garantierten Einspeisevergütung kamen. Dies führt im Jahr 2021 dazu, dass schlagartig etwa 6.000 Anlagen aus der Förderung fallen. Dann müssten sie vom Börsenspotpreis leben, Langfristverträge fallen auf Grund der volatilen Einspeisung aus. Sie stehen dann in ungeschützter Konkurrenz zu noch geförderten neueren Anlagen – wie alle anderen Erzeuger auch.

Dann platzt auch das Märchen von der wirtschaftlichen Windenergie als die mit den niedrigsten Gestehungskosten.

Dass der Einspeisevorrang vermutlich erhalten bleiben wird, ist nur ein schwacher Trost. Wartung und Instandhaltung der gealterten Anlagen, Versicherung und Pachten führen zu laufenden Kosten, die erwirtschaftet werden müssen. Wenn dies nicht gelingt, ist die dauerhafte Abschaltung absehbar. Rückbau- und Entsorgungskosten kommen hinzu. Grüne Realisten befürchten Stagnation beim Windenergieausbau oder sogar sinkende installierte Gesamtleistung, wenn mehr abgeschaltet als zugebaut wird.

Nach wie vor hält sich regierungsamtlich und in der politischen Wissenschaft (DIW) die Einschätzung von „Experten“, man könne durch den bloßen Zubau an Windkraftanlagen die Energiewende zum Erfolg führen. Man berauscht sich nach wie vor an den Steigerungsraten installierter Leistung, aber Zeitpunkt und Menge der tatsächlichen Produktion werden nicht auf ihre Sinnhaftigkeit bewertet. Das sieht dann so aus: 

Windeinspeisung von 2011-2016; Daten EEX, Grafik: Rolf Schuster

Es ist zu erkennen, dass auch die knappe Verdoppelung der installierten Windleistung in den vergangenen fast fünf Jahren zu keiner Sockelbildung (also Grundlastsicherung) geführt hat. Ist die Windgeschwindigkeit gleich oder nahe Null, ist die Anzahl der WKA irrelevant. Das zweite, konventionelle Energiesystem muss in voller Leistungsfähigkeit erhalten bleiben, so dass ein Ende der Dynamik der Kostensteigerung nicht abzusehen ist.

Andere Länder handeln, wenn die Verwerfungen zu groß werden. Im derzeit für die Investitionen in die Regenerativen gefeierten China wird in sechs windreichen Provinzen auf die Bremse getreten. Zu oft müssen die Anlagen abgeregelt werden auf Grund von Netzengpässen. Die Ballungszentren sind weit entfernt und das Netz ist bei weitem nicht so dicht wie in Mitteleuropa.

Die selbsternannten Denkfabriken der Branche in Deutschland arbeiten mit voller Kraft daran, den Einbruch der Windstromproduktion ab 2021 zu verhindern und alle Überlegungen haben ein Hauptziel, den Profiterhalt der Ökoindustrie. Um eine Wirtschaftlichkeit der regenerativen Anlagen darstellen zu können, müssen die Fossilen verteuert werden. Kohlecent, CO2-Steuern, Umweltabgaben sind angedacht sowie die Verteilung der Kosten auf andere Energieträger wie Benzin, Öl, Gas und Kohle zur Wärmegewinnung. Denkbar wäre auch ein Gebührenmodell in festgelegter Höhe analog der GEZ oder ein EE-Soli, der den „Vorteil“ brächte, dass Geringverdiener entsprechend ihrer Steuerlast weniger oder nichts zahlen.

Aber wirklich zukunftsfähig ist auch das nicht. Wie schon die Brennelementesteuer mangels verfügbarer Kernkraftwerke nicht mehr helfen kann, schmilzt auch die belastbare Basis der Fossilen. Sollten sich die ehrgeizigen Wünsche der Energiewender erfüllen, geht es ziemlich schnell bergab in Richtung der gewünschten Dekarbonisierung. Dann fehlt besteuerbares CO2 als Geldquelle und stofflich für die angedachte Methanisierung des aus P2G gewonnenen Wasserstoffs. Die bis jetzt die Verbraucherpreise dämpfenden niedrigen Börsenstrompreise wären dann Geschichte, da die Preise nur noch aus den zugesagten Einspeisevergütungen und anderweitig festgelegten Abgaben wie den Netzgebühren und Steuern resultieren würden.

Vielleicht könnte man mit all den Unwägbarkeiten noch leben, wenn sich andere Heilsversprechen endlich erfüllen würden, beispielsweise der ständig beschworene Boom an Jobs im Bereich der Erneuerbaren. Aber auch hier meist schlechte Nachrichten. Im aktuellen Energiewende-Report von McKinsey findet sich viel Ungemach: Im vierten Jahr in Folge sinkt Anzahl der Beschäftigten in der Ökobranche, erstmals ist Jobabbau in der energieintensiven Industrie zu verzeichnen, der Netzausbau liegt deutlich hinter dem Plan, der Primärenergieverbrauch steigt, der Stromverbrauch sinkt nur minimal, der Strompreis steigt weiter (gegen den europäischen Trend) ebenso wie die CO2-Emissionen.

 

Die Energiewende im jetzigen Stand ist das Gegenteil einer Win-Win-Situation.

Sie mutiert zum Verliererthema, bei dem die meisten Beteiligten als Loser vom Platz gehen. Windkraftanlagen-Hersteller Senvion streicht in Deutschland 730 Stellen. Eon vermeldet 7 Milliarden Euro Verlust und kündigt 1.300 Stellenstreichungen an, bei RWE entfallen 1.600 Stellen. Selbst Konzerntochter Innogy verzeichnet trotz hoher Windkraft-Einnahmen ein flaues Ergebnis, weil der Netzausbau viel Geld erfordert. Nach Schätzungen der Gewerkschaft IG BCE sind bisher 20.000 bis 25.000 tarifgebundene und mitbestimmte Arbeitsplätze in der Energiewirtschaft verloren gegangen. „Gute Arbeit geht verloren, weil schlechte Politik gemacht wird“ sagt ihr Vorsitzender Vassiliades dazu und fordert „Alternativen für die Alternativen“. Die Energiewende habe bereits mehr Geld gekostet als 60 Jahre Steinkohlesubventionen. Das kann man natürlich nicht vergleichen, denn die Steinkohlesubventionen haben ein Ende, welches bei den Subventionen für die Erneuerbaren nicht absehbar ist.

Wer sich diese Energiewende in Form eines ökoesoterischen Großversuchs noch schönredet, erkennt die Realitäten nicht oder ist befristete Wirtschaftsministerin i.PE (in Pensionserwartung). Eine Kursänderung ist nicht in Sicht.

Wenn wir abschließend noch einige der Autoren des EEG würdigen, muss unsere Kritik auch den nachfolgenden Regierungen gelten, die nicht die Kraft und den Mut hatten, das EEG rechtzeitig anzupassen. Erwähnung finden sollten also die ErfinderInnen JürgenTrittin, Hans-Josef Fell, Rainer Baake, Michaele Hustedt als ParteifreundInnen von Robert Habeck sowie Solarpapst Hermann Scheer von der SPD. Die Geister, die sie riefen, lassen sich jetzt nicht mehr einfangen. In den Tiefen des Webs sinniert ein User über die Grünen: „Sie suchten den Sinn und fanden den Wahn . . .“.

 

Die Grünen werden für unser Land generell nicht hilfreich sein, denn sie haben in ihrem politischen Werkzeugkasten nur genau zwei Instrumente: Subventionierung und Verbot. Und Power-to-heiße-Luft. Das reicht nicht für Deutschlands Energiezukunft.

 




Fake News sind ein Problem – Falschinformationen der Medien auch

Jean-Baptiste Moliere  1622 – 1673

„Es gibt nichts Dümmeres, als zu versuchen, die Welt zu verbessern“

 Für die möglichst objektive Information der Bevölkerung sind in einer Demokratie die Medien, also Fernsehen, Radio und Zeitungen, zuständig. Jeder schätzt die Pressefreiheit, die zur Beseitigung so manchen Missstandes beigetragen hat. Die Pressefreiheit erfährt im Grundgesetz besonderen Schutz. Vielen Menschen ist nicht bewusst, dass Pressefreiheit automatisch bedeutet, dass die Medienleute wie Aktivisten, die gezielt Falschmeldungen ins Internet setzen, ebenfalls in einem gesetzfreien Raum handeln. Törichterweise werden die Medienleute als qualitativ-charakterlich über dem Rest der Bevölkerung stehend eingestuft. Tatsächlich aber benehmen sie sich im rechtsfreien Raum „völlig normal“. Sie handeln ihren eigenen Interessen entsprechend, verbreiten die von ihnen bevorzugte Ideologie und zielen auf Gewinne beziehungsweise nicht-Pleite-gehen oder Einschaltquoten.

Weil die Menschen nicht ständig darüber nachdenken, dass die Medien, die uns seit  Kindesbeinen begleiten, in einem rechtsfreien Raum handeln, unterschätzen sie das Ausmaß der  Falschinformation gewaltig. Tatsächlich produziert die jahrzehntelange Gehirnwäsche durch die Medien bei einem hohen Prozentsatz der Bevölkerung sehr falsche Vorstellungen bei zahlreichen Sachthemen. Wir leben in einer Art Wahnwelt.  

Die deutschen Medien sind heute einheitlich grün (links). Etwaige Ausnahmen spielen keine Rolle. Entsprechend sind alle etablierten Parteien in Deutschland heute grün. Fakten, die nicht mit grüner Ideologie in Einklang sind, werden nicht/kaum veröffentlicht und wenn sie gebracht werden, werden sie nicht selten schlicht als Lügen eingestuft.

Einige Beispiele

In Fukushima waren etwa 18.000 Todesfälle zu beklagen. Nicht ein einziger Mensch starb auf Grund radioaktiver Strahlung (WHO und UNSCEAR). Das Abschalten der Kernkraftwerke in Deutschland ist die Folge von Medien-Panikmache. Tatsächlich ist radioaktive Strahlung bis zu einer gewissen Dosis hinauf gesundheitsfördernd, wirkt wie impfen

In den vergangenen Jahren befragte ich, wenn es sich so ergab, eine Anzahl Mitbürger: „Wie groß ist der Prozentanteil des CO2, also von Kohlenstoffdioxid, an der Luft?“ Die bis auf eine extrem abartigen Antworten reichten bis „80 Prozent“, die meisten lagen bei „20“ bis „30 Prozent“, also dem mehr als Fünfhundertfachen (!) verglichen mit den richtigen etwa 0,039 Prozent. Etwas mehr Faktennähe ist wünschenswert, denn immerhin geht es um das „vom Menschen verursachte schlimme Gas, das uns (angeblich) eine Klimahölle bescheren wird“. Tatsächlich ist es leicht zu beweisen, dass Kohlenstoffdioxid keinen Einfluss auf das Klima hat. Beim angeblichen CO2-Kohlenstoffdioxid-Klima-Zusammenhang geht es um die größte Lüge der Menschheitsgeschichte.

Alle Windräder und Fotovoltaik-Anlagen sind also unsinnig. – Selbst wenn man in seinem Eifer, das CO2 zu bekämpfen, statt der bereits errichteten 27.000 schließlich 270.000 Windräder aufstellen und Deutschland komplett mit Fotovoltaikanlagen zupflastern würde, könnte der Strombedarf Deutschlands auf diese Weise nicht gedeckt werden, weil nachts und bei Windstille in ganz Deutschland, was nicht selten vorkommt, keine Elektrizität geliefert würde. Die vorhandenen Kohle-, Gas- und Kernkraftwerke werden zum Füllen der Elektrizitätslücken also in jedem Fall weiterhin benötigt. Kohle-, Gas- und Kernkraftwerke können aber, eben weil sie nur noch zum Lückenfüllen gebraucht werden, nicht mehr wirtschaftlich betrieben werden. Deutschland ist das einzige Land der Erde, das sich Anlagen zur Elektrizitätsgewinnung zweimal nebeneinander leistet. – Immer wieder liest man in der Zeitung, dass eine in die Tausenden gehende Zahl an Haushalten von den Windrädern eines bestimmten Windparks komplett mit Elektrizität versorgt werde. Viele Leser glauben das sicherlich und denken die „Erneuerbaren Energien“ machen Sinn. Leserbriefe, in denen man die Aussage kritisiert, weil bei Windstille keine Elektrizität produziert wird, werden nicht gebracht. Man kann gegen diese Art vorsätzlicher Volksbelügung nichts machen, niemand hilft, weder die Gerichte, Berlin, Brüssel, die UNO  –  die Nato.

Einseitig, falsch werden nicht nur grüne, sondern auch eine Fülle von Wirtschaftsthemen abgehandelt, Ergebnis: Die Soziale Marktwirtschaft, der wir unseren historisch einmaligem Wohlstand, auch in breiten Schichten der Bevölkerung verdanken, wird in Misskredit gebracht. „Wenn man die Bürger im Lande fragt, ob die Soziale Marktwirtschaft die Reichen reicher und die Armen ärmer macht, dann stimmen 77 Prozent der Bürger dieser Aussauge zu. Für die Ungerechtigkeit in Deutschland machen 52 Prozent die Soziale Marktwirtschaft verantwortlich. Eine Mehrheit von 51 Prozent fordert sogar eine grundlegende Veränderung des Wirtschaftsmodells.“ (Frank Schäffler, Prometheus – das Freiheitsinstitut)  

Im Zusammenhang mit der EURO-Europa-Krise oder auch der US-Wirtschaftskrise wird in den Medien nur noch von Marktwirtschafts- und von Kapitalismusversagen und der Schuld der Banken geredet. Die Banken waren an all dem Irrsinn beteiligt, schon weil sie mit der Finanzierung von Unternehmen und Staaten befasst sind, aber die entscheidenden Fehler wurden von versagenden Regierungen/Politikern gemacht. In den USA setzten Politiker die Hypothekenbanken massiv unter Druck, die Hausbeleihung „bis übers Dach“ hinauf anzuheben. – Der gemeinsame Euro konnte nur funktionieren, wenn die in den einzelnen Ländern sehr unterschiedliche Wirtschafts- und Sozialpolitik zügig angeglichen würde. Die Politiker, die Regierungen, Brüssel sahen, dass in dieser Hinsicht so gut wie nichts geschah, unternahmen nichts und so nahm die unheilvolle EZB-Zinspolitik mit der Folge der Enteignung der Sparer ihren Lauf. – Wie wenigen Bürgern ist „Target 2“ ein Begriff, die Tatsache, dass die früher einmal solide Deutsche Bundesbank vergewaltigt wurde, einen nicht besicherten 800 Milliarden-Euro-Kredit an andere Länder zu geben?

Es gibt eine Fülle weiterer wichtiger Sachthemen, zu denen große Teile der Bevölkerung dank der versagenden Medien keine Kenntnis oder falsche Vorstellungen entwickelt haben.

Offensichtlich basiert die Demokratie mit ihrer Idee, die möglichst objektive Information der Bevölkerung durch Medien vornehmen zu lassen, die machen können, was immer sie wollen, auf einem schwerwiegenden Konstruktionsfehler, der dringend beseitigt werden sollte.

Niemand möchte staatliche Kontrolle. Helfen wird

DAS WUBAFI 

DAS (WIRKLICH) UNABHÄNGIGE BUNDES-AMT FÜR INFORMATION,

ein Gegengewicht zu der oft massiven Falschinformation durch die Medien.

Die Details zu dieser neu zu schaffenden Institution, die den Konstruktionsfehler der Demokratie beseitigt, ohne die Pressefreiheit zu berühren, bringt das Buch 

DEUTSCHLAND   das glaubt man nicht          ISBN 978-3-943168-93-8

Darüber hinaus werden die Falschinformationen zu zahlreichen Sachgebieten, mit denen die Bevölkerung insbesondere in Deutschland überschüttet wurde, zurechtgerückt. Zu keinem der Buchabschnitte sind Vorkenntnisse nötig. Hilfreich ist allerdings die Bereitschaft, auch eine bereits festgefügte Vorstellung zu irgendeinem Sachverhalt noch einmal auf den Prüfstand zu stellen. Einige wenige „Stichworte“ zum sehr detailliert durchdachten WUBAFI: Das WUBAFI kümmert sich nicht um die täglichen Äußerungen der Medien. Es befasst sich, durch Umfragen ermittelt, mit Sachgebieten, zu denen große Teile der Bevölkerung dank der versagenden Medien falsche Vorstellungen entwickelt haben. Ein Gesetz zum WUBAFI zwingt alle Medien, also Fernsehen, Radio und Zeitungen, die jeweilige Ausarbeitung des WUBAFI zu bringen. Es bleibt den Medien überlassen, die übrigen Zeiten und Seiten für Kritik an den Ausführungen des WUBAFI zu nutzen. Die Pressefreiheit bleibt also unangetastet. Die Information der Bevölkerung wird sich massiv verbessern. Das spezielle Verfahren, mit dem die Persönlichkeiten des Leitungsgremiums des WUBAFI ausgewählt werden, sorgt dafür, dass sie anders als beispielsweise die Richter an den höchsten deutschen Gerichten oder auch der Präsident des Bundesrechnungshofes unabhängig sind von der Politik. 

Der Start des WUBAFI     

Ein neues wirklich unabhängiges Bundesamt für Information, ein WUBAFI, ist für zahlreiche Menschen gewöhnungsbedürftig. Im Übrigen: Jedermann fällt es schwer, sich einzugestehen, dass er bei so sehr vielen Sachthemen so nachhaltig an der Nase herumgeführt wurde. – Es ist nicht die Schuld der Medien, dass die Demokratie hinsichtlich der möglichst objektiven Information der Bevölkerung einen groben Konstruktionsfehler aufweist. Übermäßigen Eifer mitzuhelfen, diesen Fehler zu korrigieren, werden sie nicht entwickeln. Sie werden die neue Idee, die Demokratie grundlegend zu verbessern, kaum verbreiten.

Die Wahnwelt, in der wir leben

Wir leben in einer Welt nachhaltiger Falschinformation. Entsprechend töricht sind zahlreiche politische Maßnahmen. Von unsinnigen Subventionen beflügelte Unternehmen verstärken die Fehlentwicklung durch entsprechende irreführende    Werbung. Unternehmen mit perfektem Faktenwissen wagen es nicht, Klartext zu sprechen, weil sie befürchten, von den Medien zerrissen zu werden. So manche Forschungseinrichtung sichert ihr Budget inzwischen durch „wissenschaftsferne Einseitigkeit“. Planwirtschaft verdrängt die Marktwirtschaft. Die Freiheit des Einzelnen wird eingeschränkt.

Es gibt nur eine Stelle, an der dieser gordische Knoten gesellschaftlicher Fehlentwicklung aufgedröselt (durchschlagen) werden kann: Die Information der Bürger muss durch ein WUBAFI  –  wie sonst?  – in Ordnung gebracht werden. Viele hundert Milliarden stehen dann für etwas Sinnvolles zur Verfügung. Nicht nur für die (nützlichen) Aasfresser unter den Windrädern kommen dann schlechtere Zeiten. Weil ihre unlauteren Einnahmen wegfallen, werden all die aktuellen Profiteure alles daran setzen, zu verhindern, dass die Demokratie in Ordnung gebracht wird.

Seit Jahren liefert eine große Zahl von Experten – oft nach Ende der Berufslaufbahn, also finanziell unabhängig – hervorragende Ausarbeitungen zu einzelnen Sachthemen, aber ihre Schriften, ihre Bücher erreichen kaum je die breite Öffentlichkeit. Die Beseitigung des skizzierten Konstruktionsfehlers der Mediendemokratie würde ihnen helfen.

Das WUBAFI ist zunächst kein Selbstläufer. Eine „kritische“ Anzahl von Bürgern muss diese drei Textseiten lesen, dann wird es schnell gehen.

Wer könnte helfen, könnte ein eigenes Interesse haben, den Staat in Ordnung zu bringen?  

Die Universitäten, Studenten – soweit sie sich eigenständiges Denken bewahrt haben. Es geht nicht um Revolution, es geht um Demokratie-Evolution.

Einige Unternehmen/Verbände könnten sich – bevor sie angesichts der derzeitigen Politik sowieso untergehen – zusammenschließen, um deutliche Worte zu sagen. Für sie könnte das WUBAFI die Rettung bedeuten.     

Größte Aufmerksamkeit wird ein Fernsehsender, wird eine Zeitschrift erreichen, sobald das hier skizzierte Thema „nachhaltig“ aufgegriffen wird.

Vielleicht finden sich jemand, der ein paar Millionen Euro in die Hand nimmt, den Bürgern das skizzierte Demokratieproblem und die Problemlösung durch entsprechende Öffentlichkeitsarbeit deutlich zu machen.   

Im Denken unabhängig gebliebene und heute eher isolierte Abgeordnete nicht nur im Bundestag sollten die Idee des WUBABI aufgreifen.

Die Partei, die die geschilderte Problematik in ihr Parteiprogramm aufnimmt, wird mehr als zehn Prozent an Stimmen zusätzlich gewinnen.




Video zum Schwindel mit der globalen Erwärmung

In den ersten 30 Video-Minuten werden noch vier Nachtrags-Informationen („Strahlungsantrieb“, „vorindustrielle Zeit“, „schneller Zeitraum“, „2-Grad-Ziel“) zu den ersten beiden Schulbuch-Videos thematisiert, bevor dann anhand der Mail vom 16.01.2017 des Chefredakteurs des Bildungshaus-Schulbuchverlage, Markus Berger, im Video damit begonnen wird, die Antworten von Stefan Rahmstorf zu widerlegen und detailliert als Täuschungen und Irreführungen zu entlarven…

Im obigen AddOn-Video #2 werden weitere „neue“ 2-Grad-Ziele thematisiert, es wird im Detail erklärt, warum relative Temperaturabweichungen nicht ohne konsistente und glaubwürdige Absoluttemperaturen existieren können. Sie erfahren im Video auch, dass die angeblichen „Klimaexperten“, wie Hans J. Schellnhuber, Stefan Rahmstorf, Mojib Latif und  Thomas Stocker, selbst gar nicht wissen, wie der angebliche Treibhauseffekt im Ursprung –  also vor ca. 120 Jahren durch Svante Arrhenius bzw. vor ca. 30 Jahren durch die Enquete-Kommission des deutschen Bundestages – begründet worden ist, um damit die angebliche Gefährlichkeit einer globalen Erwärmung  zu begründen.  Es wird im Video im Detail – aber nachvollziehbar – erklärt, wie und warum der angebliche Treibhauseffekt ein wissenschaftlicher Schwindel ist.

Im Video wird auch erklärt, wie und warum die deutsche TAGESSCHAU über das angeblich-so-wichtige „2-Grad-Ziel“ täuscht:


Wir haben die oben erwähnten neu-recherchierten „2-Grad-Ziele“ im Blogtext zu  den nun „26 (!) Varianten zum 2-Grad-Ziel“ ergänzt.

Da wir die Antworten von Stefan Rahmstorf noch längst nicht vollständig abgearbeitet haben, wird die kritische Auseinandersetzung im nächsten AddOn-Video #3 noch zielstrebig weiter fortgesetzt.




Die Asse – ein Problem wird 50

Ein Problem? Zunächst ein Beispiel, das scheinbar nichts damit zu tun hat. Ein zwölfjähriger Junge überlegte, in einen Ruderverein einzutreten. Er hatte noch gar nicht gerudert, da bekam er ein Schreiben vom Deutschen Olympischen Komitee, man hätte ihn für die übernächste Olympiade als Mitglied der deutschen Rudermannschaft ausgewählt. Das Einverständnis der Eltern läge vor, ebenso das der Schule, denn die müsste er doch ziemlich vernachlässigen. Von Montag bis Freitag hätte er täglich 4 Stunden zu trainieren, samstags 6 Stunden, und sonntags hätte er 2 Stunden Theorie. Wesentlich wäre die richtige Ernährung; es wurde aufgezählt, was er nicht mehr essen durfte, zufällig genau das, was seine Lieblingsspeisen waren. Der Junge war entsetzt. So hatte er sich das Rudern nicht vorgestellt. Erst als er so richtig verzweifelt war, ließ die Familie die Katze aus dem Sack: Er solle doch einmal auf das Datum des Schreibens achten: 1. April! Die Familie hatte das Schreiben selbst fabriziert. So geht Kindererziehung heute!

Zeitungsausriss HAZ vom 3.4.17 über die Asse

Der Sinn dieses Scherzes war natürlich nicht, nur vor gefälschten Schreiben zu warnen. Der Junge sollte lernen, dass man nichts glauben darf, es sei denn, es passt zu den Kenntnissen, die man selbst auf dem betreffenden Gebiet hat.

Wie unangebracht Vertrauen in „Qualitätsmedien“ ist, zeigt der Artikel der HAZ (s. Anlage 2). Zunächst kommt eine Lüge: „Warnungen, dass Wasser einlaufen könnte, wurden ausgeblendet.“ Nein, damit wurde nicht nur gerechnet, sondern man hat einen aufwändigen Versuchsraum hergerichtet und zwei Leute bezahlt, mich und einen Chemieingenieur, um Daten darüber zu erhalten, wie sich im Fall eines Wassereinbruchs die radioaktiven Stoffe aus den Abfallfässern herauslösen werden. Diese Versuche liefen seit 1979, 9 Jahre vor dem wirklichen Wasserzufluss. Ich musste darüber viele Berichte schreiben, an das Bergamt, an Ministerien, nach Brüssel. Über GOOGLE findet man (HOBSY-Startseite-Hinsch, Keßler) eine allgemein zugängliche Veröffentlichung von 1985.

Im Artikel der HAZ wird sonst nicht mehr direkt gelogen, aber mit Worten wie „Marodes Bergwerk, Skandal, Schlampereien, schlechte Erfahrungen“ der Eindruck vermittelt, böse und inkompetente Menschen hätten da eine höchst gefährliche Situation hinterlassen.

Tatsächlich hat man in deutscher Gründlichkeit radioaktive Abfälle mehr als einen halben Kilometer unter die Erde gebracht. Solche Abfälle kommen in Ländern wie Frankreich allenfalls 10 m unter die Erde, und dort trotz Abdichtung irgendwann mit Grundwasser in Kontakt. Vergiftet wird dadurch niemand.

Wirklich an der Oberfläche liegt künstliche Radioaktivität in der Umgebung von Fukushima, unabsichtlich natürlich. Aber ist das gefährlich? Nein, sagt die Weltgesundheitsorganisation, eine Verschlechterung des Gesundheitszustandes ist nicht zu erkennen und wird sich auch in Zukunft nicht zeigen. Ebenso schreibt UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation): Nicht einmal bei den Arbeitern, die wirklich hohen Dosen ausgesetzt waren, zeigen sich Gesundheitsschäden. Nach den Erkenntnissen von nunmehr über 100 Jahren strahlenbiologischer Forschung ist auch nichts anderes zu erwarten.

Kann man da Befürchtungen für die Anwohner der Asse haben? Heute beträgt die Aktivität der Abfälle in der Asse weniger als 1 % dessen, was in Fukushima verstreut wurde, und die Aktivität in der Asse wird von Jahr zu Jahr geringer. Es bleibt ein langlebiger Rest mit Halbwertszeiten über 30 Jahren, aber dessen Aktivität ist winzig und viel geringer als die natürliche Radioaktivität des Asse-Berges.

Neben „Lügenpresse“ sagt man auch noch „Lückenpresse“. Hierfür sind nun die Ausführungen im Artikel der HAZ über die Rückholung der Abfälle aus der Asse ein Beispiel. Die Sache wird so dargestellt, als wäre die Rückholung eine allgemein anerkannte Notwendigkeit. So ist es nicht, sie würde Milliarden kosten und wäre der reine Blödsinn. Bei der Anhörung des Bundestages vor der Verabschiedung eines Gesetzes, das gerade diesen Blödsinn bewirken soll, sagte ein Rechtsanwalt Gaßner, Vertreter der „Asse-Begleitgruppe“, über diese Rückholung herrsche ein breiter Konsens, jedoch: „Auf der Fachebene kann ein solcher Konsens nicht unterstellt werden.“ Also, für die Rückholung sind Leute, die von Radioaktivität nichts verstehen. Dass es die „Fachebene“ überhaupt gibt, wird von der HAZ ausgeblendet. Ganz bedeutend ist da Michael Sailer vom Ökoinstitut Freiburg, entschiedener Kernkraftgegner, aber eben Fachmann und daher ebenso entschieden gegen die Rückholung. Desgleichen einstimmig die Strahlenschutzkommission. Die zurzeit 20 Mitglieder dieser Kommission sind alles Fachleute, jeweils für 2 Jahre vom Umweltministerium berufen. Sie können also kaum als Lobbyisten der Atomwirtschaft bezeichnet werden.

Die HAZ stellt die Sache aber so dar, als ginge es bei der Rückholung nur um das wie und wann. Ausgeblendet wird die Frage „warum“. Diese Frage stellen Fachleute und kommen dabei zu dem Schluss: Man soll es sein lassen.

Kein Wort davon in der HAZ. Passend dazu ist ein Artikel der HAZ 2 Tage später, am 05.04.2017. „Mit mehr bürgerlichem Engagement gegen Fake-News“. Darum bemühe ich mich ja gerade. Welch ein Segen, dass es das Internet gibt! Im Artikel vom 05.04.2017 steht noch ein Witz: „Die Medien überprüften sehr genau, was richtig und was falsch sei.“

CDU/CSU, SPD, FDP und Grüne haben einstimmig ein Gesetz zur unbedingten Rückholung beschlossen. Dagegen stimmte nur die Linke, weil es ihr nicht scharf genug formuliert war.

Nun wird diese eigenartige Gesellschaft im nächsten Bundestag nicht mehr allein sein. Es wird eine neue Partei dazu kommen. Hoffen wir, dass deren MdB‘s auf der Grundlage von Logik und Tatsachen abstimmen.Ausschußdrucksache

 

 

 




Energiewende gescheitert

In einem vor kurzem bei MAKROSKOP erschienenen Artikel von Reinhard Lange wurden die ökonomischen Aspekte der Energiewende ausführlich besprochen. Lange zieht das richtige Fazit „Ohne Speicher ist die Energiewende technisch nicht möglich, mit Speichern ist sie wirtschaftlich nicht möglich.“ Dass dieses Projekt nicht gelingen konnte, stand von Anfang an fest. Es wurde von einer unseligen Allianz aus Lobbyisten und universitären Profiteuren betrieben, die sich gegenseitig dabei übertroffen haben, die für jeden Naturwissenschaftler und Ingenieur offensichtlichen Probleme kleinzureden oder zu leugnen. Rund um die Energiewende ist, wie Frank Drieschner in DIE ZEIT sehr treffend formuliert hat, ein öko-industrieller Komplex entstanden, dessen Interesse darin besteht, die Probleme lösbar erscheinen zu lassen, damit Subventionen weiter fließen. Das Energiewende-Debakel ist damit auch Ausdruck des Versagens unserer naturwissenschaftlichen und technischen Eliten.

Die Additionsregel für elektrische Ströme, dem Fachmann als Kirchhoff’scher Knotensatz bekannt, erzwingt, dass der Strom millisekundengenau im Augenblick des Verbrauchs erzeugt werden muss. Diese haarfein ausgeglichene Balance zwischen Leistungsangebot und Leistungsnachfrage wird von regelbaren Kraftwerken gewährleistet. Auf diesem Prinzip beruhen alle unsere stabilen Stromnetze. Wie groß dabei die durchschnittlichen Leistungswerte sind, ist völlig unerheblich.

Ist es nun grundsätzlich möglich, elektrische Leistung in jedem Augenblick durch Wind- und Solarkraftwerke bedarfsgerecht zur Verfügung zu stellen? Die Antwort auf diese Frage stand von Anfang an fest: Unsere Wetterstationen zeichnen seit Jahrzehnten die Windgeschwindigkeiten über ganz Deutschland verteilt auf. Jeder Physikstudent im Grundstudium ist in der Lage, aus diesen Windgeschwindigkeiten die zu erwartende elektrische Leistung der Stromerzeugung auszurechnen und natürlich schlummern solche Auswertungen in den Schubladen der einschlägig bekannten wissenschaftlichen Institute. Aus diesen Untersuchungen ist bekannt, dass die sicher zur Verfügung stehende Leistung bei exakt null liegen würde. Das gleiche gilt für Solarkraftwerke, schließlich liefern diese nachts keinen Strom.

Gesprochen wird darüber nicht. Übrigens tritt dieser Totalausfall der Windstrom-Produktion mehr oder weniger regelmäßig auf und ist längst Realität, z.B., als die Windstromerzeugung am 13. März 2014 auf 34 MW, entsprechend 0,1% der installierten Nennleistung, abgesunken ist. Da flächendeckende Hochdruckgebiete in Zentraleuropa häufiger auftreten, ist nichts anderes zu erwarten.

Häufigkeit von Windstrom- und Netzleistung. Grafik Ahlborn

Abbildung 1: Häufigkeit von Windstrom- und Netzleistung

Wertet man aus, wie häufig welche Leistung aus Wind dargeboten wird, erhält man Verläufe wie Abbildung 1: Niedrige Leistungen sind häufig, hohe Leistungen treten selten auf. Dieser Verlauf ergibt sich aus der räumlichen Verteilung der Windgeschwindigkeit über Deutschland und ist durch keine noch so intelligente Anordnung von Windrädern irgendwie zu beeinflussen. Deshalb ist es innerhalb Deutschlands prinzipiell unmöglich, die Häufigkeit des Dargebots mit der Häufigkeit des Bedarfs zur Deckung zu bringen. Ein Ausbau der Produktionskapazitäten bewirkt allenfalls eine Verschiebung des Dargebots zu höheren Werten hin. Angebot und Nachfrage sind folglich auch im langfristigen Mittel nicht zur Deckung zu bringen [2]. Der tiefere Grund dafür ist schlicht: Wenn im Norden Deutschlands viel Wind weht, ist das meist auch im Süden der Fall, für geringe Windgeschwindigkeiten gilt das in der gleichen Weise. Die Windstromproduktion über Deutschland ist hochgradig korreliert und auch diese Korrelation stand von Anfang an fest und war von Anfang an bekannt.

Gerade der Januar 2017 hat gezeigt: Nicht virtuelle, sondern konventionelle Kraftwerke gewährleisten die sichere Stromversorgung in Deutschland. Wer Kernkraftwerke abschaltet, muss entsprechende Kohle-, Öl- oder Erdgaskraftwerke neu bauen, schließlich sind großtechnisch verfügbare Speichertechnologien Jahrzehnte entfernt.

Die einzige Möglichkeit, der wetterbestimmten Korrelation zu entgehen, besteht darin, die Windstromproduktion über eine größere Fläche zu verteilen: Über sehr große Distanzen, wir reden hier von 3000 km Abstand, ist die Leistungserzeugung dann kaum oder nicht mehr korreliert. Allein durch den ausreichend großen Abstand der Produzenten lässt sich der Häufigkeitsverlauf des Dargebots beeinflussen. Diese Aussage ist erwiesen und wird durch einen fundamentalen Satz der mathematischen Statistik, den sogenannten „Zentralen Grenzwertsatz“ sichergestellt. Mit Blick auf die Windstromproduktion besagt er, dass sich die Häufigkeitsverteilung des Dargebots einer gaußschen Normalverteilung annähert, je größer die Zahl der nicht korrelierten Windstromproduzenten ist. Dann und nur dann ist es zumindest theoretisch denkbar, Dargebot und Nachfrage wenigstens im statistischen Mittel ungefähr zur Deckung zu bringen. Um zu einer ausreichend großen Zahl an nicht korrelierten Produzenten zu kommen, muss  man die notwendige Fläche zur Produktion von Windstrom dann aber weit über Europa hinaus denken.

Wie Abbildung 2 eindringlich beweist, ist eine flächendeckende Windstille in ganz Europa ebenso Realität wie in Deutschland. Auch in Europa gibt es Situationen ohne Ausgleich. Diese Situationen sind zwar selten, aber nicht ausgeschlossen. Nicht einmal in ganz Europa weht der Wind immer irgendwo. Damit ist auch klar, dass selbst ein paneuropäisches Stromnetz ein hundertprozentiges (wie auch immer beschaffenes) Kraftwerks-Ersatzsystem bräuchte, um die Sicherheit der Stromversorgung in jedem Augenblick zu gewährleisten.

Windkarte Europa

Abbildung 2: Windwetterkarte von Europa am 21. November 2011

Aus heutiger Sicht ist ein Stromnetz, das Europa mit den Weiten Sibiriens, Nordafrikas und Saudi-Arabiens verbindet, politisch wie ökonomisch nicht mehr als eine Illusion. Ebenso illusionär ist die Vorstellung, außerhalb Europas Produktionskapazitäten zu schaffen, die ganz Europa mit Strom versorgen könnten.

Obgleich Jahrzehnte von einer Realisierung entfernt, wird allerorten über sogenannte Power To Gas-„Technologien“ philosophiert. Der Gedanke ist so alt wie simpel: Überschüssiger Strom wird durch Elektrolyse und durch einen nachgeschalteten chemischen Prozess zunächst in Wasserstoff- und dann in Methangas verwandelt. Das speicherbare Methangas soll dann als Brenngas in Gaskraftwerken dienen und in elektrische Energie zurückverwandelt werden. Energetisch gesehen hat dieses Verfahren ungefähr die Logik, einen Kraftwerkskessel mit einem Tauchsieder zu beheizen. Worüber nicht geredet wird: Die energetische Effizienz der Wandlung des Brenngases Methan in elektrische Energie ist durch den Zweiten Hauptsatz der Thermodynamik begrenzt. Für den Gesamtprozess der Speicherung sind Wirkungsgrade oberhalb von 30% eher Wunschdenken. Bei 70% Verlusten ist schon der Begriff Speicherung reiner Etikettenschwindel. Und jede Kilowattstunde elektrischer Energie, die bei der Energiewandlung als Abwärme verloren geht, erfordert entsprechende elektrische Ersatzkapazitäten. Aus diesem Grund ist überschüssiger Strom gerade nicht umsonst, sondern muss mit zusätzlichen Wind- oder Solarkraftwerken teuer bezahlt werden. Aufgrund der gewaltigen Verluste sind bis zu 100% zusätzliche Produktionskapazitäten erforderlich. Allein das bewirkt eine Verdoppelung der Kosten für die Stromproduktion.

Nicht nur die, wie oben erklärt, gesicherte Leistung von null allein, sondern die Schwankungen der Windstromproduktion entpuppen sich inzwischen als unlösbares und technisch unbeherrschbares Problem.

Abbildung 3: Windstromproduktion Deutschland von 2011 bis 2016

Die Variabilität der deutschen Windstromproduktion ist um 70% größer als die Schwankungen der Augenzahlen beim Würfeln. Würden die deutschen Elektrizitätsversorger die Stromproduktion ihrer Kraftwerke täglich auswürfeln, würde der Strom gleichmäßiger fließen. [1]

Von Energiewende-Protagonisten wie dem Kasseler Fraunhofer IWES und auch hier auf der Makroskop Seite wird gern behauptet [4], ein Ausbau in der Fläche würde die Windstrom-Produktion glätten und damit das Kernproblem der extremen Leistungsschwankungen zumindest mildern. Dass diese These erwiesenermaßen nicht zutrifft, verdeutlicht Abb. 3, schließlich ist der Anstieg der Schwankungen eine ganz offensichtliche Tatsache [3].

 

Kann es überhaupt eine Glättung der Windstromerzeugung geben?

Die hohen Leistungsspitzen und die tiefen Leistungstäler der Stromerzeugung könnten theoretisch reduziert werden, wenn es einen kausalen Zusammenhang zwischen der Stromproduktion an unterschiedlichen Orten gäbe: Immer wenn an einem Ort eine hohe Leistung zur Verfügung steht, müsste die Leistung an einem anderen Ort niedrig sein und umgekehrt. Es bedürfte einer ursächlichen, kausalen Verknüpfung der Stromproduktion an unterschiedlichen Orten. Dann wäre es möglich, die Leistungseinbrüche auszugleichen und die Spitzen zu glätten. Der Ausgleich der Leistungstäler erfordert also eine negative bzw. Antikorrelation. Und gerade diese negative Korrelation der momentanen Stromproduktion gibt es nicht! Die in der politischen Auseinandersetzung weit verbreitete Behauptung, ein Ausbau der Produktionskapazitäten führe zu einer Glättung der Stromerzeugung, erweist sich als Irrtum!

Wie Abb. 3 und 4 eindeutig beweisen, führt jeder Ausbau der Erzeugungskapazitäten immer zu ansteigenden Ausschlägen und zu größeren Leistungsspitzen.

 

Abbildung 4: Windstromproduktion von 15 europäischen Ländern

 

Warum sich wissenschaftlich vorgebildete Mitteleuropäer angesichts eines Leistungsverlaufs wie in Abb. 4 dazu hinreißen lassen, hier von Glättung zu sprechen, soll hier nicht weiter bewertet werden.

Dass die Leistungsschwankungen der Windstromproduktion nur anwachsen können, stand von Anfang an fest: Ein zusammenhängendes Stromnetz fasst die Stromproduktion vieler einzelner, letztlich zufälliger Stromerzeuger zu einer Summe zusammen. Bei dieser Summenbildung addiert sich die Variabilität der einzelnen Erzeuger nach einer wohlbestimmten Gesetzmäßigkeit, die in der Statistik als Gleichung von Bienaymé bekannt ist.

Sie besagt sinngemäß, dass die Volatilität einer Summe aus positiv korrelierten zufälligen Größen immer nur anwachsen kann. Konsequenz: Jeder Zubau an Erzeugungskapazitäten erhöht die Volatilität.

Die Folgen sind verheerend: Weil wir zur Stabilisierung des Stromnetzes immer eine bestimmte Mindestzahl an konventionellen Kraftwerken am Netz halten müssen, exportieren wir inzwischen 30% des Stroms aus Wind- und Solarenergie ins Ausland [2], für einen nennenswerten Anteil davon zahlen wir eine Entsorgungsgebühr, die im Energiewende-Neusprech gern als Negativpreis daher kommt. Unsere elektrischen Nachbarn errichten inzwischen auf unsere Kosten Stromsperren an ihren Grenzen, um die Überflutung ihrer eigenen Stromnetze mit deutschem Überschussstrom zu kontrollieren. Die Kosten für die Stabilisierung des Stromnetzes lagen 2015 bei rund 1 Milliarde € und noch immer gibt es Politiker, die uns eine Erhöhung der Produktionskapazitäten empfehlen und die gesetzlichen Voraussetzungen dafür schaffen.

 

Das Fazit ist bitter:

Diese Energiewende ist eines Landes mit der naturwissenschaftlich-technischen Tradition Deutschlands geradezu unwürdig. Wir konnten es wissen, wenn wir ein bisschen nachgedacht hätten. Aber wer wollte es wissen?

Wir werden es erfahren, spätestens dann, wenn wir die Schuldigen für dieses Debakel suchen und die Politik versuchen wird, sich der Verantwortung für dieses Desaster zu entziehen. Unser ehemaliger Wirtschaftsminister ist den ersten Schritt gerade gegangen.(Anm. der Redaktion: Man kann nur hoffen, dass er als Bundesaußenminister etwas weniger Schaden anrichtet)

Anmerkungen

[1] Ahlborn, D.: Statistische Verteilungsfunktion der Leistung aus Windkraftanlagen

in: World of Mining – Surface & Underground 67 (2015) No. 4

http://www.vernunftkraft.de/de/wp-content/uploads/2014/05/Ahlborn_415_Korr-1.pdf

[2] Ahlborn, D.; Jacobi, H.: Zwei Stromerzeugungssysteme kollidieren

in: World of Mining – Surface & Underground 68 (2016) No. 5

http://www.vernunftkraft.de/kollisionskurs/

[3] Glättung der Windeinspeisung durch Ausbau der Windkraft?

in: Energiewirtschaftliche Tagesfragen, 65. Jg., Heft 12, 2015

http://www.et-energie-online.de/Zukunftsfragen/tabid/63/Year/2015/NewsModule/413/NewsId/1600/Glattung-der-Windeinspeisung-durch-Ausbau-der-Windkraft.aspx

[4] Weber, G.: Gastkommentar zur Energiewende

https://makroskop.eu/2016/12/gastkommentar-zur-energiewende/?success=1

Über den Autor

Dr.-Ing. Detlef Ahlborn ist Maschinenbauingenieur mit einem besonderen Faible für mathematische Statistik. Er ist selbständiger Unternehmer und engagiert sich in seiner Freizeit bei vernunftkraft.de. Dort vertritt er den Fachbereich Technologie.