Der missver­standene Klima­wandel

Obwohl die exakte Terminologie und Ausdrucksweise variieren kann, erzählt man uns immer wieder die offiziellen ,Fakten‘ zum Klimawandel, als da wären:

a) Globale Erwärmung ist im Gange, und zwar mit einer beispiellosen und sich beschleunigenden Rate

b) Sie wird verursacht durch unsere Kohlendioxid-Emissionen aus der Verbrennung fossiler Treibstoffe

c) Das hat bereits zu einem alarmierenden und sich beschleunigenden Anstieg des Meeresspiegels geführt.

d) Das hat bereits zu einer alarmierenden und sich beschleunigenden Zunahme an Häufigkeit und Stärke von Extremwetter-Ereignissen geführt.

e) Es hat bereits alarmierend und beschleunigend das Aussterben von Spezies verursacht.

f) Wir befinden uns in einer Klimakrise, die schon bald katastrophale Ausmaße annehmen wird (potentiell einher gehend mit einem Massen-Aussterben), falls wir den Klimawandel nicht stoppen.

g) Wir können den Klimawandel stoppen mittels des dringenden Übergangs zu erneuerbaren Energiequellen wie Wind und Solar und damit unsere Emissionen eliminieren.

h) Die Wissenschaft hinter diesen Punkten ist settled und jenseits aller Zweifel.

Meine These lautet nicht, dass diese ,Fakten‘ einfach nur ,Fake News‘ sind (also absichtlich in die Welt gesetzte Falschheiten) oder ,Mythen‘ (andeutend, dass in ihnen keine Wahrheit irgendeiner Art steckt), sondern dass es sich um fundamentale Missverständnisse handelt auf der Grundlage der Art und Weise, mit der uns Wissenschaft und Belege informieren. Diese Missverständnisse scheinen sich das Mäntelchen eines ,kollektiven Glaubens‘ umgehängt zu haben, welcher durch gebetsmühlenartige Wiederholungen in den Medien irrtümlich als unbestreitbare Tatsachen aufgefasst wird – obwohl man jederzeit die Wissenschaft dahinter selbst überprüfen und Beweise widerlegen kann (oder sie zumindest ernsthaft hinterfragen). Nur wenige Menschen werden die Ansichten von Wissenschaftlern vernommen haben (darunter die von vielen der führendsten Wissenschaftler in der Welt), welche diese ,vom Menschen verursachte Klimawandel-Krise‘ in Frage stellen – einfach deswegen, weil diese Stimmen weitgehend ruhig gestellt worden sind (typischerweise, indem diese Personen als ,Klimawandel-Leugner‘ oder ,Wissenschafts-Leugner‘ gebrandmarkt werden). Im gegenwärtigen Klima der Feindschaft auch nur gegen die Einbeziehung alternativer Standpunkte gibt es offenbar nur eine einzige politisch korrekte Position, nämlich zu akzeptieren, dass das alarmistische Narrativ über alle Zweifel erhaben ist.

Es kommt kaum überraschend, dass es zu diesen Missverständnissen gekommen ist, weil für die meisten Menschen (seien das nun die allgemeine Öffentlichkeit, Politiker oder insbesondere auch Journalisten) ihre Informationen zum Thema Klimawandel vorherrschend aus den Medien beziehen. Wenn die Medien außerdem auch dem Mainstream zuzuordnen sind (wie etwa die BBC) und man ihnen ,vertraut‘, glauben die Menschen aus guten Gründen, dass ihnen die ,ganze Wahrheit‘ vermittelt wird durch neutral berichtende Journalisten, welche die Wissenschaft und die Beweise verstanden und kritisch unter die Lupe genommen haben. Traurigerweise gibt es jedoch kaum ein solches Verständnis und kritische Analysen – Journalisten neigen stark dazu, einfach zu übernehmen, was ihnen die ,wissenschaftlichen Autoritäten‘ vorgeben (in Gestalt von Presseerklärungen und Dokumenten mit einer executive summary, aus welchen alle Komplexitäten und ausgeprägte Unsicherheiten und Mehrdeutigkeiten entfernt worden sind). Dieses oftmals oberflächliche Verstehen wird dann dem Zielpublikum vermittelt in einer unwissenschaftlichen, emotionalen und hyperbolischen Sprache (wie etwa die Termini ,Klima-Notstand‘ oder ,Klimawandel-Krise‘), wobei Ausreißer-Prophezeiungen angeführt werden, die praktisch unmöglich eintreten können, um den Eindruck von Dringlichkeit und Gefahr zu erwecken; rhetorische Appelle an Emotionen gekoppelt mit alarmierenden Bildern (wie kalbenden Gletschern, Hurrikanen und Waldbrände oder auch vom Computer animierte ertrinkende Städte). All dies gräbt sich in die öffentliche Meinung viel stärker ein als rhetorische Appelle an die Logik, gekoppelt mit einer komplizierten Wissenschaft, mit Graphiken und Daten. Auf diese Weise werden höchst unwahrscheinliche Risiken in ferner Zukunft als existenzielle Krise heutzutage wahrgenommen. Falls man also die allgemeine Öffentlichkeit (und Journalisten und Politiker) davon überzeugen will, dass wir uns ,in einer vom Menschen verursachten Klimawandel-Krise‘ befinden, dann muss man sie normalerweise nur davon überzeugen, dass ,globale Erwärmung‘ im Gange ist (was niemand bestreitet) – einfach weil nur Wenige die fundamentalen Unterschiede verstehen werden zwischen einem vom Menschen verursachten Klimawandel einerseits und der natürlichen Klimavariation andererseits. Es reicht also schon eine einzige Temperaturgraphik (von denen man bei Google Tausende findet), um den offensichtlichen ,Beweis‘ des Narrativs zu führen. Dabei ist ein Beweis dafür, dass die globale Erwärmung stattfindet, kein Beweis dafür, dass es sich um eine vom Menschen verursachte Erwärmung handelt. Es ist kein Beweis dafür, dass Klimawandel stattfindet (geschweige denn ein vom Menschen verursachter Klimawandel), weil es sich bei der Erwärmung einfach um die natürliche Klimavariabilität handelt. Diese natürliche Klimavariabilität ist die Variabilität des mittleren Zustandes des Klimas in allen Zeitmaßstäben (jenseits der Zeitmaßstäbe normaler Wetterereignisse) aufgrund rein natürlicher Prozesse.

Diese Konfusion wurde versinnbildlicht in der Dokumentation ,Climate Change – The Facts‚ von Sir David Attenborough (von BBC TV gesendet am 18. April 2019). Diese Dokumentation war ein einziger Katalog wissenschaftlicher Missverständnisse und umfassender Behauptungen bzgl. eines vom Menschen verursachten Klimawandels, der zu eskalierenden Hitzewellen, Dürren, Stürmen, Überschwemmungen, Eisschmelze in der Antarktis, Anstieg des Meeresspiegels, Aussterben von Spezies und verbreitetem Korallensterben führen soll. Eine Zusammenstellung von Kritiken an dieser Sendung findet man hier und hier und hier. Enthalten darin ist auch die Behauptung (wie sie auch von so extremistischen Gruppen wie Extinction Rebellion aufgestellt werden), dass wir global bis zum Jahre 2050 Null-CO2-Emissionen erreichen müssen und nicht über ein halbes Grad Celsius globale Erwärmung hinausgehen dürfen, falls wir eine Klimakatastrophe vermeiden wollen. Diese Behauptung wird – um es so freundlich wie möglich auszudrücken – in keiner Weise von der Wissenschaft gestützt, wie jedem mit zumindest einem minimalen Verständnis der Klimawissenschaft oder jemandem, der den SR15-Report des IPCC gelesen hat, klar ist, obwohl dieser Report angeblich die Grundlage dieser Behauptung sein soll. Dem IPCC zufolge würde das Erreichen dieses Zieles außerdem beispiellose Änderungen unserer Lebensweise, unseres Energieverbrauchs und unseres Transportwesens erfordern – also nichts weniger als eine globale soziale und ökonomische Revolution.

Das grundlegende Problem für all jene, die bereit sind, alternative Gesichtspunkte ernsthaft in Erwägung zu ziehen besteht darin, dass um die Falschheiten in dem simplistischen Narrativ der Alarmisten zu verstehen es eines ziemlich tiefen Eintauchens in die Wissenschaft bedarf, in Statistiken, Politik und Ökonomie des Klimawandels – und das ist zeitraubend. Es ist harte Arbeit, welche ein ziemlich hohes Niveau wissenschaftlicher Bildung voraussetzt. Falls man sich jedoch dieser Mühe unterzieht, ergibt sich ein sehr unterschiedliches (und weitaus weniger alarmierendes) Bild:

1) Globale Erwärmung und Klimawandel sind beide eindeutig im Gange (wobei Letzterer reflektiert wird beispielsweise durch sich zurückziehende Gletscher und Meeresspiegelanstieg) – jedoch bislang in beiden Fällen mit einer Rate, die klar innerhalb der natürlichen Klima-Variabilität liegt (und die nicht beispiellos ist).

2) Es gibt grundlegende Unsicherheiten bzgl. der Frage, inwieweit menschliche Aktivitäten zur postindustriellen globalen Erwärmung und Klimawandel beigetragen haben, nicht zuletzt wegen des extrem schwierigen Unterfangens, den vom Menschen verursachten Klimawandel vom ,Hintergrund-Rauschen‘ der natürlichen Klima-Variabilität zu trennen.

3) Der Meeresspiegel steigt mit einer Rate von 18 bis 20 cm pro Jahrhundert, also mit einer Rate, die trotz unserer eskalierenden Kohlendioxid-Emissionen stabil geblieben ist, d. h. die Ursachen sind vorherrschend natürlichen Ursprungs. Wir können sämtliche derartigen Emissionen über Nacht einstellen, und der Meeresspiegel wird genauso weiter steigen – eine Unvermeidlichkeit, an die wir uns anpassen müssen.

4) Es gibt nicht einmal ansatzweise irgendwelche überzeugenden wissenschaftlichen Beweise, dass Extremwetter-Ereignisse an Häufigkeit oder Stärke in postindustrieller Zeit zugenommen haben (obwohl die Berichterstattung darüber sehr wohl zugenommen hat).

5) Es gibt nicht einmal ansatzweise irgendwelche überzeugenden wissenschaftlichen Beweise, dass Klimawandel (sei er nun vom Menschen verursacht oder nicht) zu einem verbreiteten Aussterben von Spezies geführt hat (die meisten Aussterbe-Ereignisse sind dem Verlust von Habitaten, Raubbau, Verschmutzung oder invasiven Spezies geschuldet).

6) Falls man die (vollständig natürliche) El Nino-Erwärmung von 2015/16 entfernt, gab es in diesem Jahrhundert keine statistisch signifikante globale Erwärmung.

7) Jüngst (vor allem in diesem Jahrhundert) hat sich die globale Erwärmung verlangsamt (während unsere Kohlendioxid-Emissionen weiter gestiegen sind). Dies illustriert die Tatsache, dass es keine direkte (oder lineare) Korrelation gibt zwischen der globalen Temperatur und Kohlendioxid-Emissionen.

8) Es ist unmöglich, die mittlere Temperatur der Erde zu kontrollieren (schon gar nicht in Zeitmaßstäben von Jahrzehnten bis zu Jahrhunderten), indem man einfach die Kohlendioxid-Emissionen kontrolliert.

9) Es ist unmöglich, den Klimawandel zu stoppen – ist dieser doch inhärent komplex, unvorhersagbar und unkontrollierbar.

10) Es ist unmöglich, eine Größenordnung des Klimawandels zu spezifizieren, jenseits der die Auswirkungen desselben insgesamt schädlich werden (das 2°C-Ziel des Paris-Abkommens ist politisch willkürlich).

11) Kohlendioxid ist ein nicht brennbares, farb-, geruch- und geschmackloses Gas, welches ein sehr effektiver Grundstoff für das Pflanzenwachstum ist. Dank der von unseren Emissionen verursachten Zunahme der Konzentration in der Atmosphäre ist die Erde auf eine Art und Weise ergrünt, die schon jetzt äquivalent zur doppelten Größe der USA ist. Der Kohlenstoff-Zyklus der Erde kann durch das Hinzufügen einer solch großen Kohlenstoff-Senke fundamental verändert werden. Außerdem ist das Gas der ,Treibstoff‘ der Photosynthese und für die Erzeugung von Sauerstoff; es ist absolut essentiell für die Existenz des komplexen Lebens auf der Erde (uns selbst eingeschlossen). Dr. Richard Lindzen, Professor der atmosphärischen Wissenschaften am MIT, hat es so ausgedrückt: „An den Gedanken, dass Kohlendioxid ein gefährliches, den Planeten zerstörendes Gift ist, wird man sich später als ,die größte Massen-Irreführung aller Zeiten‘ erinnern“.

12) Die Kohlendioxid-Konzentrationen in unserer Atmosphäre sind heute um etwa 46% höher als die Konzentrationen in vorindustrieller Zeit (280 ppm), aber sie liegen etwa viermal niedriger als dessen mittleres Niveau und mindestens zehnmal niedriger als zur Zeit der höchsten Konzentration in der Erdgeschichte (auf der Grundlage paläoklimatischer Schätzungen).

13) Die globale mittlere Temperatur der Erde liegt heute um etwa 1°C über dem vorindustriellen Niveau, aber um etwa 6°C unter dem mittleren Niveau und mindestens um 13°C unter dem höchsten Niveau in der Erdgeschichte (auf der Grundlage paläoklimatischer Schätzungen).

14) Computermodelle bzgl. Klimawandel erweisen sich als sehr unzuverlässige Hilfsmittel zur Vorhersage des Klimawandels in der Zukunft (besonders hinsichtlich deren grober Übertreibung der Erwärmung) – und doch sind es die extremsten ,Prophezeiungen‘ dieser Modelle, welche die globale Klima- und Energiepolitik bestimmen.

15) Die zukünftigen Kosten und Auswirkungen von Dekarbonisierung können sehr gut über zukünftige Kosten und Auswirkungen einer vom Menschen verursachten globalen Erwärmung hinausgehen, d. h. selbst wenn eine solche Erwärmung schädlich sein sollte, dürfte es kaum kosteneffektiv sein, dem mit Dekarbonisierung zu begegnen.

16) Auf der Grundlage von aus Beobachtungen abgeleiteter Schätzungen der Klima-Sensitivität dürfte die weitere, vom Menschen verursachte globale Erwärmung in diesem Jahrhundert kaum über 1,5°C hinausgehen, und die Auswirkungen derselben sind wohl insgesamt vorteilhafter für Mensch und Umwelt. …

17) Klima-Störungen (z. B. mit einem Zusammenbruch des Golfstromes) vor Ende dieses Jahrhunderts aufgrund einer vom Menschen verursachten globalen Erwärmung sind nicht absolut unmöglich, aber extrem unwahrscheinlich.

18) Ein ,Massen-Aussterbe-Ereignis‘ vor Ende dieses Jahrhunderts aufgrund der menschengemachten Erwärmung ist praktisch unmöglich. Hingegen ist eine globale ökonomische Rezession/Depression als Folge der Klimapolitik praktisch sicher – eine Politik, die vermeintlich darauf abzielt, die zukünftige Erwärmung auf ein halbes Grad Celsius zu begrenzen, um gerade ein solches Ereignis zu vermeiden.

19) Unberechenbare [intermittent] Wind- und Solarenergie ist keine Lösung bzgl. irgendeines zukünftigen Klimawandel-Problems.

20) Die Wissenschaft vom Klimawandel ist gegenwärtig unausgegoren, höchst fragwürdig und nicht einmal ansatzweise settled. Genau das ist der Grund, warum so viele so verschiedene Interpretationen dieser Wissenschaft durch die Welt geistern.

Auf der Grundlage all dieser Punkte ist der politisch korrekte Modetrend für Gremien/Landkreise/Länder, einen ,Klimawandel-Notstand‘ auszurufen, eindeutig einem ausgeprägten wissenschaftlichen Missverständnis geschuldet (tatsächlich ist es schwierig, nicht den Terminus ,wahnhaft‘ {delusional} in den Mund zu nehmen), wenn man irgendeine vernünftige Definition des Terminus‘ ,Notfall‘ [emergency] zugrunde legt. Es könnte wohl politisch sinnvoll sein (um das ,grüne Votum‘ zu erlangen), aber es ist wissenschaftlich und ökonomisch kompletter Unsinn. Beispiel: die einzige signifikante Änderung des Klimas in UK seit hunderten von Jahren war eine geringe Erwärmung – und dennoch hat das UK-Parlament jetzt einen ,Klimawandel-Notfall‘ ausgerufen. Es ist schwierig, einen Sinn in dieser Maßnahme zu erkennen, denn der Klimawandel bisher war insgesamt vorteilhaft für Mensch und Umwelt, hat er uns doch aus dem Elend der Kleinen Eiszeit herausgebracht, welche der geringen Erwärmung vorausgegangen war, mit ihren Dürren, Missernten, Hungersnöten und Epidemien – und er ist einher gegangen mit dem zunehmenden Wohlstand und der längeren Lebenserwartung aufgrund der Industriellen Revolution. All das deutet viel eher auf das genaue Gegenteil eines Notfalls.

Trotz allem oben Gesagten – falls man trotzdem der Linie der radikalen globalen Dekarbonisierung folgt, kann diese nicht ohne konzertierte Maßnahmen erfolgreich sein, besonders seitens großer Emittenten wie China (30% der weltweiten Kohlendioxid-Emissionen, Tendenz steigend – und der IEEFA zufolge einer Finanzspritze von etwa 36 Milliarden Dollar von Kohle-Projekten). Falls nur schwache Emittenten der Dekarbonisierung folgen, ist das noch schlimmer als sinnlos. Selbst wenn beispielsweise UK (1,1% der globalen Emissionen) ihre Ökonomie irgendwann vollständig dekarbonisiert (mit noch gar nicht verfügbaren Verfahren wie CCS), wie es vom UNFCCC gefordert wird, wäre die zukünftige Reduktion der globalen Erwärmung immer noch unmessbar klein. Damit ergeben sich grundsätzlich extreme ökonomische, soziale und umweltliche Schäden. Die einzige Grundlage, auf der so etwas erreicht oder verantwortet werden kann ist, wenn große Emittenten wie China dem Beispiel von UK folgen – und, gelinde gesagt, die Chance dafür ist vernachlässigbar.

Natürlich steht es um diese 20 Punkte erheblich komplizierter, qualifizierter und unsicherer als die 8 einfachen, absoluten und ,sicheren‘ Fakten zu Beginn dieses Beitrags. Hätte man die Wahl zwischen den komplexen Unsicherheiten der 20 Punkte und der einfachen Sicherheit der ,Fakten‘, würden wohl Viele letzteres vorziehen. Können wir also all diese Komplexität auf ein relativ einfaches ,alternatives Klimawandel-Narrativ‘ reduzieren – mit dem sehr realen Risiko, dass dieses Narrativ genauso banal ist wie der ursprüngliche Faktensatz? Falls man zu einer so großen Vereinfachung gezwungen ist, möchte ich Folgende Punkte vorschlagen:

a) Globale Erwärmung ist im Gange, wenngleich mit einer Rate, die durchschnittlich ist und sich nicht beschleunigt.

b) Sie wurde verursacht sowohl durch menschliche Aktivitäten als auch natürliche Kräfte (das heißt sie ist nicht einfach nur unseren Kohlendioxid-Emissionen geschuldet)

c) Dadurch steigt der Meeresspiegel, wenngleich in einer Rate, die durchschnittlich ist und sich nicht beschleunigt

d) Es ist nicht zu einer Zunahme von Häufigkeit und Intensität von Extremwetter-Ereignissen gekommen.

e) Sie hat nicht zu einer Beschleunigung des Aussterbens von Spezies geführt.

f) Wir stehen nicht vor einer ,Klimawandel-Krise‘ oder gar einem ,Klimawandel-Notfall‘ (tatsächlich ist genau das Gegenteil der Fall), aber Klima-Störungen in ferner Zukunft sind nicht unmöglich, wenngleich auch extrem unwahrscheinlich.

g) Wir können den Klimawandel nicht aufhalten, aber wir können die Klimawandel-Risiken reduzieren (wenngleich zu sozial und umweltlich unerschwinglichen Kosten), indem wir graduell zu weniger Kohlenstoff-intensiven Energiequellen wechseln (wie Erdgas).

h) Die Wissenschaft hinter diesen Punkten ist unausgereift und Gegenstand von Diskussionen. Es gibt einen fast totalen wissenschaftlichen Konsens, dass globale Erwärmung stattfindet und dass wir dazu beitragen [?, der Übersetzer] – aber ausgeprägte Meinungsunterschiede über das Ausmaß unseres Beitrags, ob dieser zu einem ,gefährlichen‘ Klimawandel führt und ob globale Dekarbonisierung wirklich die richtige politische Antwort ist.

Nun ist all dies höchst kontrovers, weil es die politisch korrekte Orthodoxie bzgl. Klimawandel unterläuft, jene alarmierenden ,Fakten‘, die in Frage zu stellen uns verboten ist. Viele würden zweifellos gegen dieses alternative, besonnene und weit weniger alarmistische Narrativ opponieren, vielleicht mit der Aussage, dass dies ,nicht dem entspricht, was das IPCC sagt‘. Das IPCC wird typischerweise beschrieben als ,das international anerkannte Gremium bzgl. Klimawandel‘. Es wird von den meisten Akademikern, Politikern, Umweltaktivisten und Journalisten mit Achtung, wenn nicht sogar Ehrfurcht betrachtet, sehen diese doch das IPCC als praktisch unfehlbar und allwissend an, wenn es um Klimawandel geht. Tatsächlich sind viele meiner 20 Punkte direkt aus den IPCC-Berichten abgeleitet. Insgeheim habe ich den Verdacht, dass das IPCC im Privaten den meisten dieser 20 Punkte zustimmt (was es aber aus Furcht vor einer Reduktion der Furcht nie öffentlich einräumen würde). Außerdem konzentriert sich das IPCC fast ausschließlich auf einen vom Menschen verursachten Klimawandel (um der Vorgabe des UNFCCC zu folgen) auf Kosten bedeutender Aspekte des natürlichen Klimawandels, und die Brandmarkung des Schuldigen, also Kohlendioxid, ist vorbestimmt. Die Ansichten des IPCC zu ignorieren wäre genauso närrisch wie zu glauben, dass es über alle Zweifel erhaben ist.

Um das Thema Klimawandel wirklich zu verstehen müssen wir akzeptieren, dass es weitaus komplizierter, facettenreicher und unsicherer ist als die vereinfachte Berichterstattung in den Medien. Wir müssen unseren Geist der breiten Vielfalt von Experten-Meinungen öffnen, über diese sehr ernsthaft nachdenken, den gesunden Menschenverstand walten lassen und vorsichtige Beurteilungen abgeben. Über allem muss aber stehen, dass wir uns vor irgendwelchen simplen Lösungen hüten müssen – wie etwa eine globale Dekarbonisierung. Unglücklicherweise haben nur sehr wenige Menschen dafür Zeit, Neigung und Ausdauer. Dr. Richard Lindzen drückte es so aus: „die offensichtlich überwältigende Botschaft der da oben lautet, dass wir vor einer vom Menschen verursachten Klimawandel-Krise stehen und dass dieser nur durch dringende und radikale globale Dekarbonisierung zu begegnen ist“. Dabei ist es nur zu verständlich (wenngleich auch bedauerlich), dass die breite Mehrheit der allgemeinen Öffentlichkeit ebenso wie Journalisten und Politiker sich einfach dafür entschieden haben, das zu glauben. Die simplen Sicherheiten des alarmistischen Narrativs in den Medien mag auf ausgeprägten wissenschaftlichen Missverständnissen beruhen (wessen sich die da oben auch wohl bewusst sind). Aber die Haltung der Oberen scheint es zu sein, dass weil eine ,Klimawandel-Krise‘ in ferner Zukunft nicht unmöglich ist, die dubiosen Mittel durch das implizite möglich gerechtfertigt sind. Aber selbst dieses alarmistische Narrativ hat es nicht vermocht, die Nationen der Welt zu gemeinsamem Handeln zu bewegen. Würden die Behörden ehrlich über das Thema Klimawandel reden mit all seiner Komplexität und Unsicherheit, würde dies den Regierungen sogar noch weitere Gründe geben, Dekarbonisierungen zu verzögern oder zu vermeiden. Das Verhalten aller wissenschaftlichen Autoritäten ist perfekt verständlich, wenngleich auch bedauerlich, weil dadurch das Risiko radikaler Klimawandel-Maßnahmen zu implementieren steigt, welche man in Zukunft noch sehr bedauern würde. Und natürlich ist auch das Verhalten der Medien völlig verständlich (wenngleich ebenfalls bedauerlich), weil sich schlechte Nachrichten nun einmal gut verkaufen. Hingegen ist es sehr schwierig, aus ,keine Klimawandel-Krise‘ eine Story zu machen.

Wenn die Leute sagen, dass sie an die Klimawandel-Krise glauben, weil sie an ,die Wissenschaft glauben‘, sagen sie in Wirklichkeit, dass sie es deswegen sagen, weil sie die Wissenschaft gar nicht verstehen, an die zu glauben sie sich entschieden haben. Und das, weil dieses Narrativ von Behörden und in den Medien vorangetrieben wird. Nur wenige Menschen entscheiden sich dafür, den ,wenig begangenen Weg‘ einzuschlagen, ihren Geist zu öffnen für die Argumente der anderen Seite der Klimawandel-Debatte, einschließlich Komplexität, Unsicherheit, Zweifel und sozialer Schande. Einerseits hat man es mit einem offensichtlich wissenschaftlich Geradeaus zu tun, das leicht verständlich, sehr sicher und sehr alarmierend ist („unsere Kohlendioxid-Emissionen verursachen eine Klimawandel-Krise“), und das auch eine einfache Lösung hat („Dekarbonisierung“). Andererseits gibt es ein wissenschaftlich herausforderndes, sehr schwierig zu verstehendes, komplexes und unsicheres Problem, welches alarmierend sein kann oder nicht und welches keine einfache Lösung hat. Anders gesagt, einerseits gibt es eine imminente existentielle planetare Krise, der nur durch eine radikale und dringliche Transformation der globalen Gesellschaft begegnet werden kann, während man andererseits ein mögliches Problem in ferner Zukunft hat ohne eine offensichtlich ,korrekte‘ politische Lösung heute. Es ist nicht schwierig zu erkennen, warum manche Leute, besonders junge, idealistische und leicht zu beeindruckende Leute, eher zu Ersterem neigen, die Banner ausrollen und ,den Planeten retten‘ wollen mittels einer Welt-Revolution unter dem Motto Save The Planet‚.

Innerhalb der klimawissenschaftlichen Gemeinschaft läuft die Trennlinie im Wesentlichen zwischen jenen (verkörpert durch das IPCC), welche vorherrschend an Klimamodelle glauben (d. h. virtuelle Welt-Projektionen dessen, was in der Zukunft passieren könnte) und jenen, die vorherrschend an empirische wissenschaftliche Beweise glauben (d. h. Beobachtungen in der realen Welt, die tatsächlich vor sich gegangen sind). Erstere Gruppe neigt dazu, sich auf die möglichen hohen Risiken eines zukünftigen Klimawandels konzentrieren und einer rapiden globalen Dekarbonisierung das Wort reden nur für den Fall. Die zweite Gruppe hingegen neigt dazu sich auf die möglichen geringen Risiken zu konzentrieren (sowie auf die hohen Kosten und die Auswirkungen von Dekarbonisierung). Man könnte sagen, dass die zweite Gruppe das Ganze wie ein Geschäftsmann betrachtet, welcher das Gleichgewicht von Möglichkeiten, Kosten, Vorteile und Risiken austariert, während die erste Gruppe einfach sagt, dass es ein gewaltiges potentielles Risiko gibt und daher etwas (radikale globale Dekarbonisierung) getan werden muss, fast ungeachtet aller Wahrscheinlichkeiten, Kosten und negativer Auswirkungen. Jemand hat es so ausgedrückt: „die ungelöste Schlüsselfrage lautet, ob globale Dekarbonisierung ,unsere allgemeine Zukunft im globalen Maßstab zu unserem Vorteil fundamental umgestalten wird oder rasch zu Schäden führt, welche die Menschheit in den ökonomischen, sozialen und umweltlichen Bankrott führen kann’“. Klimawissenschaftler, die das dominante Narrativ einer vom Menschen verursachten Klimawandel-Krise hinterfragen, sagen nicht, dass es ein eindeutiges wissenschaftliches Urteil ,Unschuldig‘ gibt, sondern sie sagen einfach dass unsere Schuld noch nicht über alle Zweifel erhaben bewiesen ist.

Das fundamentale Problem mit dem Klimawandel-Problem ist, dass es ein ,hinterhältiges‘ Problem ist: es ist unmöglich, unser zukünftiges Klima vorherzusagen oder zu bestimmen, ob es nun harmlos oder alarmierend ist, und zu sagen, wie man darauf reagieren sollte, weil einfach zu viele Variable, zu viele Unbekannte und zu viele Unsicherheiten im Spiel sind. Was wir jedoch als Reaktion wählen ist ein gigantisches Hasardspiel mit der Zukunft der Menschheit. Wie auch immer wir uns entscheiden – es könnte dazu führen, dass wir unsere Entscheidungen eines Tages zutiefst bedauern.

Link: https://wattsupwiththat.com/2019/05/06/climate-change-misconceived/

Übersetzt von Chris Frey EIKE




Reloaded: Kaleidoskop der Klimafakten Teil 3 von 3

Ich habe nicht die Absicht den Leser von etwas zu überzeugen, was er mit tiefem Glauben ablehnt. Jeder Mensch ändert sich nur aus sich selbst heraus! Meine Zusammenstellung kann nicht erschöpfend sein.  Einige neue Leser mögen die früheren Links noch nicht kennen.

 

Beginn Teil 3 von 3

Schmelzen die Polkappen – besonders der Nordpol?

Nordpol

 Satelliten messen täglich und machen Bilder: Die Eisbedeckung schwankt im Rhythmus der Jahreszeiten um gut 10 Mio qkm. Diese Fläche entspricht mehr als dem doppelten aller EU-Länder.Da von „zu wenig altem Eis“ zu sprechen ist lächerlich.

Grafik vom 18.02.2014, Dieser Server ist nicht mehr aktiv. –http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm

Daher hier die oft genutzter Kurvendarstellung hier vom 29.04.2019 von der Universität Bremen

Eindrucksvoll sind auch die Bilder der Eisbedeckung, hier im Vergleich, siehe Datum

Quelle Bilder: Universität von Illinous, Datenarchiv,

Dieser Server ist nicht mehr aktiv. http://arctic.atmos.uiuc.edu/cryosphere/archive.html

Südpol


Grafik vom 18.02.2014, Mehr als 15 Mio km² Fläche schmilzt und friert jährlich neu.

Quelle Bilder: Universität von Illinous, Datenarchiv

Dieser Server ist nicht mehr aktiv. http://arctic.atmos.uiuc.edu/cryosphere/IMAGES/seaice.recent.antarctic.png

 Daher hier vom 29.04.2019 von der Universität Bremen

 Hier mal zur Verdeutlichung, wieviel Eisfläche das ist, die an den Polen jährlich schmilzt und wieder einfriert

https://europa.eu/european-union/sites/europaeu/files/docs/body/surface_area_world_de.pdf

 

Der Mensch, jedenfalls der westliche, ist Schuld

Bevor der temperaturneutrale Ausdruck „Klimawandel“ die „Klimaerwärmung“ abgelöst hatte, gab es alarmistische Meldungen mit fast identischem Wortlaut wie heute in den 70er Jahren.

… Unsere Medien sind zum großen Teil Anhänger der Church of Global Warming und des öko-industriellen Komplexes geworden. Wie kam es, dass sich in einer der theoretisch liberalsten Gesellschaften der Welt eine Meinungsvielfalt ausbildete, die es mit derjenigen der verblichenen DDR aufnehmen konnte. … Wolfgang Röhl, 13.02.2014

http://www.achgut.com/dadgdx/index.php/dadgd/article/gruener_schreiben_frag_nach_bei_greenpeace

 

Bereits schon früher gab es Meldungen in den Medien

“ Die Arktis ist eisfrei“, das war 1934.

Später, um 1941, gerade als deutsche Soldaten nach Norden und Osten zogen, waren besonders strenge Winter bis zu minus 50°C angesagt, was denen gar nicht gut bekommen war.

Nach kurzer Erwärmung haben die Medien dann 1974 vor der nächsten Eiszeit gewarnt und Rudi Carrell besang 1975 das schlechte Wetter. „Wann wird’s mal wieder richtig Sommer?“

https://www.youtube.com/watch?v=KzEOvyDcVas

Während der Nordpol schmilzt, gibt es am Südpol Rekorde in der Eisbedeckung

http://www.csmonitor.com/Environment/Latest-News-Wires/2012/0921/While-Arctic-melts-Antarctic-ice-hits-record.-Is-warming-debunked

 

Die Antarktis ist bald eisfrei, der Meeresspiegel steigt

Auch lustig, ein Forschungsschiff „MV Akademik Shokalskiy“ mit Erwärmungsgläubigen an Bord wollte in der Antarktis zeigen, wie die globale Erwärmung fortschreitet, dann froren sie über Nacht in dicken Eis fest und mussten per Hubschrauber gerettet werden, Dez. 2013,

http://www.sueddeutsche.de/panorama/mv-akademik-shokalskiy-hilfe-fuer-polarschiff-vorerst-gescheitert-1.1852219

Auch Eike berichtet darüber

https://www.eike-klima-energie.eu/2014/01/02/jetzt-da-die-passagiere-des-narrenschiffes-in-der-antarktis-sicher-sind-muessen-harte-fragen-gestellt-werden/

Und dann die Überraschung:

https://www.eike-klima-energie.eu/2014/12/01/unterwasser-roboter-findet-ueberraschend-dickes-meereis-um-die-antarktis/

 

Schnee in Ägypten

im Winter 2013/2014 gab es auch Schnee in Israel, Ägypten und anderen angrenzenden Ländern – ein Kamel im Schnee. Das war aber nicht das erste Mal seit über 100 Jahren, auch 2009 gab es bereits ähnliche Bilder.

https://www.t-online.de/nachrichten/wissen/id_17348648/schnee-in-der-wueste.html

T-Online, Kamel im Schnee, Kairo Jan. 2014, Bericht auf Eike, hier Wetter Online 2009

 

Wie tönte unser Medienprofessor doch noch gar nicht so lange her:

Quelle: Spiegel online

und in der Rückschau. http://www.science-skeptical.de/blog/mojib-latif-im-jahre-2000-winter-ade-nie-wieder-schnee/0017336/

http://www.t-online.de/wetter/id_43699628/winter-extrem-neue-kleine-eiszeit-ist-jetzt-moeglich-.html

 

Erinnern Sie sich noch: Flughäfen gesperrt weil das Streusalz ausgegangen war?

http://www.welt.de/vermischtes/article11856958/In-Nuernberg-ist-das-Streusalz-ausgegangen.html

 

Die Meeresspiegel steigen – vor allem in den Malediven

Die Einheimischen nutzen die Korrale als Baumaterial. Nach den Anzeichen (abgeschaut bei Prof. Mörner) gab es keine besondere Erhöhung des Meeresspiegels. Die meisten Einheimischen sind arm. Außer Tourismus gibt es keine Einnahmequellen. Der Islam ist die vorherrschende Religion.

Daher planten die Malediven 11 neue Flughäfen auf weiteren Inseln, um die touristische Entwicklung voranzubringen. Dazu gehören dann auch die Einrichtung von Hotel / Resort Anlagen. Sie erinnern sich, in 2009 hielt Präsident Mohammed Nasheed eine Konferenz unter Wasser ab.

http://www.dailymail.co.uk/news/article-1221021/Maldives-underwater-cabinet-meeting-held-highlight-impact-climate-change.html

Im gleichen Jahr verkündete die Tourismuszentrale:

http://www.maldivestourismupdate.com/2009/07/11-new-airports-to-be-constructed-in.html

In 2015 ist jetzt  auch der elfte Airport fertig

http://www.breitbart.com/london/2015/06/19/the-maldives-has-just-built-its-eleventh-airport-thats-how-scared-it-is-of-global-warming/

Malediven ist auf den Geschmack gekommen, und plant noch weitere fünf Flughhäfen

Maldives to develop another five airports to boost tourism

Erweiterung der Infrastruktur, damit mehr zahlende Touristen  kommen können.

 

Zum Abschluss einer doch länger gewordenen Sammlung, ein kurzer Link zur

Energie

Auf Eike finden Sie viele Beiträge zur Energie, der Dichte und der Reichweite der Ressourcen.

https://www.eike-klima-energie.eu/2018/09/01/naturgesetzliche-schranken-der-energiewende/

 

Andreas Demmig, ursprünglich von Anfang 2014, wieder angefasst im April 2019

 




Nutznießer der Klimakollapshysterie: versagende Eliten in Afrika

Roger Letsch schrieb gerade auf seinem Blog unbesorgt.de, daß die globale Weltuntergangs-Propaganda rund ums Klima von korrupten und undemokratischen Politikern im abstürzenden Südafrika missbraucht wird, um ihr Versagen zu kaschieren.

Das Land ist Lesern der „alternativen“ Medien als neuer Apartheidstaat bekannt, in dem nur 30 Jahre nach dem Ende der weißen Dominanz der Rassismus wiederkehrt, diesmal allerdings mit umgekehrten Rollen. Schwarze Gangs überfallen und ermorden seit Jahren weiße Farmer, deren Arbeit eigentlich die Ernährung des Landes sicherstellt. Wie wir neulich berichteten, wurde zudem der südafrikanische Energieversorger Escom heruntergewirtschaftet. Ein Exodus der weißen Minderheit vor allem Richtung Australien ist die Folge. Verantwortlich für diese Entwicklung sind vor allem schwarze Politiker des Afrikanischen Nationalkongresses (ANC), der Dauer-Regierungspartei. Davon liest man natürlich kaum etwas in den etablierten Quantitätsmedien, da nicht sein kann, was nicht sein darf.

Stattdessen entschuldigen unsere Journalismus-Aktivisten die künstlich geschaffene Misere, Sie ahnen es, mit dem Klimawandel!

Roger Letsch berichtete von einem Interview einer Deutschlandfunk(DLF)-Journalistin mit einer ARD-Korrespondentin zum Thema Wahlkampf in Südafrika. Da wird ernsthaft nach der öffentlichen Kommunikation über den Zusammenhang von Armut und „Klimawandel“ gefragt; und die Aktivistin in Johannesburg sekundiert, daß das Land am Kap „spürbar betroffen“ sei. Wie man das „spürt“? Es ist heiß in Johannesburg. Das ist in Afrika ja etwas völlig Überraschendes. Es sei heißer als früher, sagt sie. (Nachgemessen? Oder merkt sie den Unterschied zwischen z.B. 35 und 37°C?) Trotzdem gibt es Überschwemmungen, Südafrika ist also nicht so trocken wie Deutschland im Klimawandel-Sommer.

Immerhin scheinen die Südafrikaner laut Aussage der ARD-Journalistin mehrheitlich nicht in der Kirche der Church of Global Warming zu sein, weil kaum einer über den Quatsch rede. Das wundert nicht, auch in Europa scheinen Weltuntergangsreligionen ein Phänomen zu sein, das sich auf Weiße beschränkt. Wobei die verbliebenen Buren und Briten in Südafrika ganz andere Sorgen haben als erfundene Öko-Katastrophen.

Um den Klimawahnsinn zu toppen, lobt die ARD-Korrespondaktivistin auch noch die äußerst linke und rassistische Partei der Economic Freedom Fighters, die das „kolonialistische Erbe“ Südafrikas via „Landreform“, also Enteignung der weißen Farmer, „umkrempeln“ wollen.

Dabei lebt die (weiße) ARD-Journalistin selber dort unten, weiß also von den Morden, den häufigen Total-Stromausfällen und der durch ANC-Mißwirtschaft hervorgerufenen Wasserknappheit. Sitzt sie den ganzen Tag in einer klimatisierten Villa mit privatem Wachschutz im Viertel? Fährt sie nur in der Limousine durch die Stadt und steigt niemals aus? Wenn nicht, wie kann man ihre Wirklichkeits-Ignoranz erklären?

Aber wenn hierzulande Menschen an irgendwelche Weltuntergänge glauben, weil eine bezopfte Marionette im Fernsehen etwas davon erzählt, und es in manchen Sommern heiß und trocken ist, kann man sich schon vorstellen, daß eine ARD-Journalistin in Johannesburg mit ordentlich Geldeinsatz vermeiden kann, politisch nicht korrekte Tatsachen zu sehen.




Warum die Energiewende ein totes Pferd ist und der SPIEGEL Unsinn schreibt

Was sind denn nun die wirklichen Gründe? Nun, es sind weder fehlende Speicher, noch fehlende Stromleitungen von Nord nach Süd, noch fehlender politischer Wille, noch fehlendes fähiges Management. Nein, lieber SPIEGEL, Du bist komplett auf dem Holzweg. Es ist viel einfacher. Bereits der frühere US-Präsident Bill Clinton hatte es begriffen (er meinte damals economics):

„It’s physics, stupid“

Wir empfehlen dem SPIEGEL, seinen Redakteuren elementare Nachholkurse  für offenkundig verpassten Physik- und Technikunterricht zu verordnen. Sonst ist es wohl aus mit diesem Blatt einer selbstverschuldeten, monoton absackenden Auflage. Wie das Beitragsbild zeigt ging die Auflage des wöchtl. Verkaufs des SPIEGEL vom 1. Quartal 2012 bis zum 1. Quartal 2019 von rund 930.000 auf 700.000 Exemplare. zurück: Dies ist sicher eine Folge des stetigen Anschreibens gegen die klassischen SPIEGEL-Leser, welche Fakten und keinen grün-ideologischen Unsinn lesen wollen. Den bekommen sie woanders besser..

1.  Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern. Aktuell sind diese Zielstellungen verändert und unverbindlicher im Koalitionsvertrag festgehalten.

Das Vorhaben, als „Energiewende“ bezeichnet, soll mit Strom aus Wind, Sonne und Biomasse realisiert werden, im Folgenden kurz „Erneuerbare“ genannt (die Bezeichnung ist sachlich falsch, hat sich aber dennoch durchgesetzt). Die Energiewende betrifft praktisch nur elektrischen Strom. Elektrische Energie machte 2017 etwa 1/6 der deutschen Primärenergie aus. Sie ist die wichtigste, weil unverzichtbare Energieform für jede moderne Industriegesellschaft. Strom ist nur ein Medium, um Energie zu transportieren. Er wird aus einer anderen Energieform erzeugt und beim Verbraucher in die jeweils benötigte Energieform umgewandelt. Elektrische Energie kann man in größerem Umfang nur über verlustreiche und kostspielige Umwege speichern, etwa mit Pumpspeicherwerken oder Batterien. Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft, macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1%. Mehr als 1000 Bürgerinitiativen wenden sich gegen die Beeinträchtigung ihrer Naturumgebung durch Windturbinen sowie gegen gesundheitsschädlichen Windrad-Infraschall. Weiterer Windrad-Ausbau lässt daher zunehmenden gesellschaftlichen Widerstand erwarten.

Deutschland hat heute die höchsten Strompreise Europas. Behörden ergreifen inzwischen Maßnahmen gegen großräumige Stromausfälle, weil die Wahrscheinlichkeit gefährlicher Blackout-Ereignisse  infolge des zunehmenden Fluktuationsstroms aus Wind und Sonne ansteigt. Dem Fluktuationsproblem von Wind- und Sonnenstrom wird mit aufwendigem Zu- und Abschalten von schnell reagierenden Gaskraftwerken begegnet (GuD Backupkraftwerke). Das für die Netzstabilität notwendige Vorhalten von fossilen Backupkraftwerken, deren Leistung der Gesamtleistung der fluktuierenden Erneuerbaren entspricht, ist zu einem maßgebenden Kostenfaktor der Energiewende geworden.

Sind die Gründe für die Energiewendeprobleme falsches Management, unzureichende Planung oder technische Unzulänglichkeiten? Zu diesen Fragen gibt es bereits reichhaltige Literatur. Der renommierte Ökonom Prof. Hans-Werner Sinn hat erst jüngst wieder eine kritische Studie zur Energiewende vorgelegt. Grundsätzlich unterliegen die „Erneuerbaren“ und damit die Energiewende zwei naturgesetzlich bedingten und daher mit keinem Mittel zu behebenden Fundamentalmängeln. Der wichtigste Mangel dieser beiden wird dabei oft unterschätzt, den Medien ist er so gut wie unbekannt. Mit ihm wird sich der vorliegende Beitrag vorwiegend befassen.

Energie ist der maßgebende Kostenfaktor industrieller Produktion, und alle Industrienationen befinden sich im globalen Wettbewerb. Nicht einmal ein momentan auf ersten Plätzen dieses Wettbewerbs stehendes Land hat die Garantie, nach nachhaltigen Fehlentscheidungen in seiner Energiepolitik auch dort zu verbleiben. Im Folgenden wird dargelegt, warum die beiden Fundamentalmängel der „Erneuerbaren“ eine unvermeidbare Konsequenz elementarer Naturgesetzlichkeiten sind. Die beiden Fundamentalmängel und ihre naturgesetzlichen Gründe sind zwar den Fachleuten geläufig, nicht aber in erkennbarer Weise den für das Projekt „Energiewende“ Verantwortlichen und auch nicht den deutschen Medien.

Ein naturgesetzlich bedingter Mangel ist durch keine technische Maßnahme zu beseitigen. Der Versuch, dies dennoch zu erzwingen, führt zu extremen Kosten und Umweltbelastungen. Falsches Management und falsche Planung sind selbstverständlich bei allen großen Projekten ein gefährlicher Mangel. Es ist aber zu betonen, dass die Energiewende auch bei besten Planungs- und Managementvoraussetzungen immer noch zum Scheitern verurteilt wäre. Politik und unkundige Medien haben noch immer nicht begriffen, dass man Physik und technische Regeln nicht durch Wunschdenken oder Ideologie außer Kraft setzen kann, ohne dass die Folgen katastrophal werden.

2.  Energie im Verlauf der Menschheitsgeschichte

Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, etwa 30 kWh im Mittelalter und ist auf über 200 kWh in modernen Industriegesellschaften angestiegen. Jäger und Sammler deckten ihn noch mit Feuerholz, im Mittelalter kamen Landwirtschaft, Zugtiere sowie Wasserräder und Windmühlen hinzu. Heute (2015) wird der Energiebedarf der Menschheit zu insgesamt 81,4% von Kohle, Erdöl und Gas gedeckt (s. Bild 1).

 

Bild 1: Weltenergieverbrauch in Methoden-Anteilen im Jahre 2015, erstellt nach den Daten der IEA. Holz– und Holzkohle (hier unter Biobrennstoffe) stellen mit dem 3,75-fachen der Windenergie zumindest in der EU den größten Anteil an den „Erneuerbaren“. Da insbesondere die erhältlichen globalen Werte in der Regel nur Schätzungen sind, können unterschiedliche Quellen voneinander abweichende Werte in den Methoden-Anteilen angeben.

Der Rest kommt aus Uran 4,9%, Wasserkraft 2,5%, Biobrennstoffen 9,7% (Holz, Stroh, Tierdung etc.) und den „Erneuerbaren“ Wind, Sonne, Geothermie, Gezeitenergie etc. 1,5%. An dieser Zusammensetzung wird sich auch in den nächsten Jahren kaum Wesentliches ändern. Wind- und Sonnen-Energie spielen weltweit nur eine verschwindende Rolle. In Deutschland würden sie bei freien Marktverhältnissen (keine Subventionen, keine gesetzliche Zwangseinspeisung von Sonnen- und Windstrom etc.) wegen ihrer zu hohen Kosten, verglichen mit Kohle oder Uran, nicht vorkommen (s. auch Bild 2 im Abschnitt 5.).

Allein die Umlagen zur Förderung der „Erneuerbaren“ gemäß dem Erneuerbare-Energien-Gesetz (EEG) belasten die deutsche Volkswirtschaft und Verbraucher heute mit 30 Milliarden Euro pro Jahr. Bei der Nutzung der „Erneuerbaren“ Wind, Sonne und Biomasse kommt zumindest in Windturbinen und Photovoltaik modernste Technik zum Einsatz. Diese Modernität verstellt freilich den Blick auf die naturgesetzlichen Schwächen dieser alternativen Stromerzeugungsmethoden. Die Energieversorgung im Mittelalter liefert für diese Schwächen ein Anschauungsbeispiel.

Die ab etwa 700 n.Chr. einsetzende Klimaerwärmung mit ihrem Höhepunkt um das Jahr 1000 ließ Ernteerträge und Bevölkerungszahlen ansteigen. Es wurden riesige Waldflächen für den benötigten Ackerboden gerodet, bis 1400 verschwanden dadurch zwei Drittel des deutschen Waldes. Die erforderliche Ackerfläche zur Ernährung einer Person war um ein Vielfaches größer als heute. 90% der gesamten Bevölkerung waren Bauern oder anderweitig in der Landwirtschaft beschäftigte Menschen. Der Aufwand an menschlicher Arbeit, Zugtieren und Ackerflächen für die Landwirtschaft war kaum noch zu steigern. Daher war es im Spätmittelalter bei einsetzender Klima-Abkühlung und schlechteren Ernten nicht mehr möglich, die stark angewachsene Bevölkerung noch ausreichend zu ernähren. Es begann die Zeit der Hungersnöte, verstärkt durch Seuchen und Pest. Zwischen dem Jahre 1000 und Ende des 19. Jahrhunderts wurden in Westeuropa 400 Hungersnöte registriert.

Erst der dank neuzeitlicher Chemie mögliche Einsatz von Düngern und Schädlingsbekämpfungsmitteln und die Mechanisierung der Agrarwirtschaft durch Verbrennungsmaschinen konnte die Nahrungsversorgung der Bevölkerung auf eine sichere Basis stellen. Heute ernährt ein Landwirt in Deutschland etwa 130 Mitbürger. Der Anteil der Landwirtschaft am Energieverbrauch der deutschen Gesamtwirtschaft beträgt heute nur noch 1,3%. Um die mittelalterliche Energieerzeugung mit Hilfe riesiger Ackerflächen und einem extrem hohen menschlichen Arbeitsaufwand und das im Spätmittelalter entstandene Desaster zu verstehen, sind die physikalischen Größen Energiedichte und Leistungsdichte unverzichtbar. Die zentrale Bedeutung dieser beiden Größen gelten unverändert auch für die heutigen Verhältnisse. Nur mit ihnen ist auch das moderne Desaster „deutsche Energiewende“ verständlich. Dies wird im folgenden Abschnitt zuerst an Hand von Beispielen verdeutlicht.

 

3.  Der entscheidende Begriff der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW (den fiktiven Antrieben der Arktika liegen die deutschen Jahresmittelwerte von Wind- und Sonnenstrom zugrunde). Eine wind- oder sonnenbetriebene Arktika wäre zwar bei Flaute oder Wolkenbedeckung nicht fahrtüchtig, aber dies soll hier vorerst keine Rolle spielen. Die Frage nach den Gründen für den extrem hohen Aufwand der beiden „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche        (1)          oder

Leistung = Leistungsdichte x Fläche        (2)

Auf der linken Seite von Glg. (2) steht für alle drei Antriebsarten der Arktika der gleiche Wert von 55 MW. Die Faktoren der rechten Seite der Gleichung zeigen dagegen entscheidende Unterschiede zwischen Uran, Wind und Sonne. Kernreaktoren haben eine sehr hohe Leistungsdichte, sie bringen höchste Leistung auf minimaler Fläche. Man baut sie sogar seit Jahrzehnten in U-Boote ein. Sonne und Wind haben dagegen, naturgesetzlich bedingt, nur minimale Leistungsdichten. Entsprechend muss die Photovoltaik-Fläche beim Solarantrieb oder die von den Windradpropellern überstrichene Fläche beim Windradantrieb extrem groß sein, damit das Produkt in Glg. (2) noch die hier benötigten 55 MW ergibt. Die folgende Tabelle 1 zeigt Grobwerte von Leistungsdichten.

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts „elektrische Energie“ unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

Die in Tab. 1 zu erkennenden Unterschiede der Leitungsdichten von Wind, strömendem Wasser und Kohle sind unschwer anschaulich-verständlich: So kann man sich noch gegen einen Sturm von 20 m/s (72 km/h) Windgeschwindigkeit stemmen, dagegen in einen reißenden Wildfluss von weit weniger als 20 m/s Fließgeschwindigkeit zu geraten, endet oft tödlich. Auch der Unterschied zwischen der in unsere Haut eindringenden Leistung beim Sonnenbad auf der Wiese und der in ein Steak eindringenden Leistung auf einem glühenden Holzkohlengrill ist anschaulich. Letztere ist tausendfach höher als die auf der Schwimmbadwiese.

Der Schwachpunkt der mittelalterlichen Energieversorgung wird nun deutlich. Es handelt sich um Methoden kleinster Leistungsdichten, die mit riesigen, ertragsschwachen Ackerflächen und hohem Aufwand an menschlicher Arbeitskraft und Zugtieren einen bei günstigem Klima gerade noch ausreichenden Ertrag lieferten. Eine Windturbine, obwohl ausgestattet mit modernster Technik, ist wegen der minimalen Leistungsdichte des Windes dennoch nichts anderes als ein Rückschritt zu den mittelalterlichen Methoden der Windmühle und des Segelschiffs. Um strömender Luft ausreichend Energie zu entnehmen, benötigen Windräder riesige Propeller. Zu geringe Leistungsdichte des Windes ist der Grund für die Mammut-Ausmaße dieser Anlagen, wenn man davon absieht, dass Windgeschwindigkeiten mit zunehmender Höhe etwas ansteigen. Nicht umsonst haben unsere Vorfahren Segelschiffe zugunsten des Dampf- und späteren Dieselantriebs freudig aufgegeben.

Das hier betonte „naturgesetzlich“ bedeutet, dass wir auf die Leitungsdichten von Wind und Sonneneinstrahlung keinen Einfluss haben. Lediglich die Ernteerträge von Energiemais lassen sich mit moderner Genetik und Düngung geringfügig erhöhen. Die Natur selber setzt die Grenzen, auch beste Technik ist gegen zu geringe Leitungsdichten machtlos. Aus einer Pferdekutsche wird auch mit heutiger Computersteuerung und modernster Mechanik kein leistungsstarkes Motorfahrzeug. Erstaunlich erscheinen in Tabelle 1 die grob 10 W/m2 gemittelte Leistungsdichte aus Photovoltaik in Deutschland. Am oberen Rand der Erdatmosphäre kommen schließlich 1367 W/m2 an. Verantwortlich für den kleinen Wert am Boden ist vor allem der durch Wolken unterbrochene und bei Nacht völlig fehlende Strahlungsfluss. Hinzu kommt, dass die Wirkungsgrade kommerzieller, im realen Betrieb befindlicher Photovoltaik nur bei grob 10% liegen, weil die Oberflächen der meist fest installierten Solarpanelen nicht dauernd optimal auf die Sonne ausgerichtet sind, sie allmählich verschmutzen und der Wirkungsgrad von Photovoltaikzellen mit steigender Temperatur dramatisch abnimmt.

Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen-Akku dagegen von 0,18 kWh/kg. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benzinautos mit sich führen. Da heute etwa 71% der Güter in Deutschland oft über weite Strecken und mit engen Zeitvorgaben auf der Straße transportiert werden, ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für Innenstadt und Golfplatz sinnvoll.

4.  Die entscheidenden Nachteile zu kleiner Leistungsdichte

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb, denn diese Wirkflächen müssen mit Technik zugebaut werden. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament. Drei E 126 haben somit das Gesamtgewicht aller 300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel aber nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als 100 km Windturbinen hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. Zudem fluktuiert die aus Wind gewonnene Leistung, die von fossilen Kraftwerken ist dagegen konstant. Windturbinen, inzwischen höher als der Kölner Dom, erweisen sich wegen ihrer zu geringen Leistungsdichte und der sich daraus ergebenden gigantischen Abmessungen als extrem schädlich für die Umwelt. Landschaftsentstellungen, gesundheitliche Schädigung von Windrad-Anrainern durch Infraschall und das jährlich hunderttausendfache Töten von Greifvögeln, Störchen, Fledermäusen und Insekten sind zu nennen. Fledermäuse können zwar durch ihre Ultraschallortung den hohen Tangentialgeschwindigkeiten der Rotorblätter entkommen, die Luft-Druckstöße zerreißen ihnen aber die Lungen. Nicht thematisiert und daher der Öffentlichkeit völlig unbekannt sind die bei intensivem Einsatz von Windturbinen erzeugten schädlichen Klimaveränderungen der tiefen Atmosphäre (hier, hier). Die oft auf Hausdächern installierte Photovoltaik ist dagegen umweltneutral, sieht man von Umweltproblemen durch giftige Metalle (Cadmium) bei der Entsorgung von Solarzellen ab. Beim Energiemais gibt es das Problem der zerstörten Artenvielfalt auf Energiemaisfeldern (hier, hier). Zusammengefasst gilt die Regel:

Je kleiner die Leistungsdichte einer Methode zur Stromerzeugung ist, umso größer müssen die Wirkflächen der Methode sein und umso aufwendiger, kostspieliger und umweltbelastender ist die Methode.

Die historische Entwicklung der Technik belegen, dass technischer Fortschritt bei gleichzeitigem Umweltschutz nur mit immer größeren Leistungsdichten in Stromerzeugung, Produktion, Verkehr etc. zu erreichen war und immer noch ist. Die benötigte Energie für eine anwachsende Bevölkerung bei gleichzeitig zunehmendem Lebensstandard kann wirtschaftlich und umweltschonend nur mit den jeweils verfügbaren Methoden höchster Leistungsdichte bereitgestellt werden. „Erneuerbare“ sind für moderne Industrienationen ungeeignet, können aber vorübergehend in Ländern der Dritten Welt durchaus sinnvoll sein. Die größten Umweltschäden sind heute in Entwicklungsländern zu finden, die den Weg zu höheren Leistungsdichten noch nicht beschreiten können. Das oft in den Medien betonte „sanft“, mit dem „Erneuerbare“ als vorteilhaft und umweltschonend dargestellt werden sollen, stellt die Fakten komplett auf den Kopf. Es verhält sich genau umgekehrt:

Je „sanfter“ eine Methode zur Erzeugung von elektrischer Energie ist, umso kostspieliger und oft umweltschädlicher ist sie.

 

5.  Der Erntefaktor als Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned to Energy Invested), quantifiziert die bisherigen Ausführungen. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen. Der ERoEI ist ein Energiemultiplikator. Man investiert eine Kilowattstunde und erhält ein Vielfaches zurück, natürlich nur bei ERoEI > 1, sonst wäre es ein Verlustgeschäft.

Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll. Zur Begründung des Faktors 7 wird auf die Originalarbeit verwiesen. Das Bruttosozialprodukt sowie eine Energieverbrauchs-Technologie, wie die der OECD, gehen dort in die wissenschaftliche Herleitung ein. Bei der Berechnung des ERoEI für Wind- und Sonnenstrom wird auch der Energieaufwand zur Pufferung des fluktuierenden Zufallsstroms berücksichtigt, weil fluktuierender Strom zur direkten Einspeisung in ein Stromnetz ungeeignet ist. Auf diesen zweiten Fundamentalmangel der „Erneuerbaren“ Wind und Sonne wird in Abschnitt 9. eingegangen. Bild 2 zeigt den ERoEI für die wichtigsten Methoden zur Erzeugung von elektrischem Strom.

 

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

 

6.  Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. An Stelle der in Tabelle 1 in Abschnitt 3 für Leistungsdichten angegebene Wirkflächen sind Landschaftsflächen oft aussagekräftiger. Wählt man Landschaftsfläche, ändert sich bei der Photovoltaik nur wenig. Wenn sich Photovoltaik auf Hausdächern befindet, verbraucht sie sogar überhaupt keine Landschaftsfläche. Für Energiemais beträgt die Leistungsdichte, bezogen auf die Anbaufläche, grob 0,2 W/m2. Dieser kleine Wert lässt fragen, wie viel Anbaufläche rechnerisch benötigt würde, um ausschließlich mit Energiemais den gesamten Inlandsstrom Deutschlands (in 2016) zu erzeugen: Pro Quadratmeter beträgt die Jahresenergiedichte von Energiemais 0,2 W/m2 · 8760 h = 1752 Wh/m2. Der Inlandsstromverbrauch Deutschlands in 2016 betrug 593 TWh = 593 · 1012 Wh. Daher wären (593 · 1012 Wh)/(1752 Wh/m2) = 3,1 ·1011 m2 oder 310.000 km2 Anbaufläche für Vollversorgung nötig. Das ist fast die Gesamtfläche Deutschlands.

Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in Wind-„parks“ beträgt die Leistungsdichte bezogen auf Landschaftfläche etwa 1 W/m2. Sie ist daher sehr viel kleiner als bezogen auf die Propellerfläche (vergl. Tab. 1 unter Abschnitt 3), denn Windturbinen werden in der Regel nicht einzeln sondern in Ansammlungen aufgestellt. Hier müssen Mindestabstände eingehalten werden, um Leistungsminderungen durch gegenseitige strömungstechnische Beeinflussung zu vermeiden. Der Wert von 1,1 W/m2 wurde in einer internationalen Fachpublikation für ein Gebiet der USA ermittelt, dessen Windverhältnisse mit Deutschland vergleichbar sind. Er kann aber auch aus den verfügbaren deutschen Daten grob geschätzt werden: in 2016 waren in Deutschland 27.000 Windräder installiert, meist in Windparks mit Mindestabständen. Eine moderne Windturbine nimmt in Windparks etwa 0,3 km2 Bodenfläche in Anspruch. Damit ergibt sich die erzeugte Jahresenergie zu 27.000 · 0,3 · 106 m2 · 1 W/m2 · 8760 h = 71 TWh. Mit der erzeugten Inlandsstromenergie von etwa 80 TWh passt die Schätzung zum o.g. Wert von 1 W/m2. Mit Hilfe des bereits erhaltenen Resultats für Energiemais für Stromvollversorgung ist die zu Windrädern gehörige rechnerische Fläche dann nur noch mit 0,2 W/1 W = 1/5 zu multiplizieren. Dies entspricht etwa der Fläche Bayerns.

In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen gesundheitsschädigende Wirkung durch wissenschaftliche Untersuchungen belegt ist. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt PTT Braunschweig und zwei Hamburger Universitätskliniken erstellt. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38  einer Studie des Bundesumweltamts geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Bodenfläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert. Der Ausbauplan der Bundesregierung für Windenergie erscheint daher unrealistisch.

 

7.  Die Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist besser bekannt und wird bereits von den Medien thematisiert. Er ist seine Wetterabhängigkeit. Zufallsstrom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche VGB-Studie widerlegt. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.

Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt. Bild 3 zeigt die stündliche Einspeisung von Wind- und Sonnenstrom über das Jahr 2015.

Bild 3: Stündliche Einspeisung des gesamten bundesdeutschen Wind- und Sonnenstroms (Daten: R. Schuster, aus den Daten von  EEX, Amprion, TenneT, 50Hertz, TransnetBW) im Jahre 2015.

Das Einspeiseproblem von Zufallsstrom wird von den Medien inzwischen als eine der dringendsten Probleme der Energiewende wahrgenommen. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten, bereits bei Abweichungen von 0,2 Hertz besteht die Gefahr eines großflächigen Netz-Blackouts. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihrem stetigen Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist bis heute ohne Ersatzkraftwerke nicht in der Lage, den Strombedarf jederzeit zu decken.

Man benötigt also für Windräder und Photovoltaik noch einmal etwa die gleiche Leistung an fossilen Ersatz-Kraftwerken, denn schließlich ist die Lücke zu füllen, wenn Wind und Sonne fehlen. Grober Unfug dürfte für diese Notwendigkeit eine sehr freundliche Bezeichnung sein. Ersatzkraftwerke sind zudem infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen. Wirtschaftliche Speichersysteme für Strom in Deutschland als Alternative für Backup-Kraftwerke sind nicht in Sicht. Pumpspeicherwerke als bislang einzige Lösung, wie sie zum Beispiel in Norwegen eingesetzt werden, sind hierzulande aus topo-geografischen Gründen nicht möglich, von Einzelanlagen abgesehen.

 

8.  Photovoltaik in Ländern starker Insolation

Photovoltaik kleinster Einheiten in Entwicklungsländern mit hoher Insolation und fehlender Strom-Infrastruktur ist eine interessante und offenbar auch vielgenutzte Option. Hier reichen für eine Familie bereits wenige Quadratmeter Solarzellen und wenige Autobatterien als Stromspeicher aus, um den Fernseher zu betreiben, nachts elektrisch zu beleuchten und das SmartPhone aufzuladen. Betrachtet man dagegen die Stromgewinnung aus Photovoltaik- oder Sonnenspiegel-Großanlagen, ergibt sich ein anderes Bild. Trotz, verglichen mit Deutschland, etwa doppelter Insolation in afrikanischen Ländern, in Australien oder in den Südstaaten der USA konnte sich dort die Nutzung von Solarstrom nicht durchsetzen. Solarstrom hat, wie Bild 2 zeigt, den kleinsten Erntefaktor aller Verfahren.

Insbesondere von deutscher Seite wurden zahlreiche Solarstromprojekte in Ländern mit hoher Insolation angestoßen. In solche Projekte flossen zum Teil erhebliche Mittel, zwei stellvertretende Beispiele wurden in EIKE näher beschrieben (hier, hier). Ein langfristiger Erfolg irgendeines Großprojekts ist bislang nicht bekannt. Jeder Urlauber auf den kanarischen Inseln kann diese Fehlschläge durch eigene Beobachtung vervollständigen: Es gibt kaum eine Weltgegend, die besser als die kanarischen Inseln mit Wind und Sonne gesegnet ist. Dennoch haben sich selbst hier und trotz hoher finanzieller Anschub-Unterstützung Wind- und Sonnenenergie nicht durchsetzen können. Die Energienutzungs-Statistik von Marokko bestätigt das kanarische Beispiel.  Der Grund für die Misserfolge liegt auf der Hand. Sieht man von den eingangs beschriebenen Vorteilen einer Nutzung in sehr kleinen Einheiten ab, verbessert sich in Großanlagen sonnenstarker Länder als einziges Kriterium nur die Insolation. Dieser Vorteil reicht aber bei weitem nicht aus, um die bereits geschilderten Nachteile der Photovoltaik, insbesondere ihre fehlende Stromlieferung in der Nacht, wieder wettzumachen.

 

9.  Weitere Gründe für die unzureichende Leistung von Wind und Sonne

Die geringe Leistungsausbeute von Photovoltaik ist mit den Schwankungen sowie nächstens völligem Fehlen des solaren Strahlungsflusses und den sehr kleinen Wirkungsgraden von Photozellen um die 10% im Wesentlichen erklärt. Für Windräder muss dagegen neben der Windfluktuation auch noch die typische Kennlinie einer Windturbine (Bild 4) beachtet werden Erst damit ist die noch heftigere Schwankung der Stromleistung (Bild 3 oben), verglichen mit Sonnenstrom und die extrem ungünstige Leistungsernte von Windturbinen zu verstehen.

Alle Strömungsmaschinen unterliegen dem physikalischen Gesetz „Leistung gleich proportional zur dritten Potenz der Strömungsgeschwindigkeit“ (s. grüne Kurve in Bild 4). Gemäß diesem v3-Gesetz führt Verdoppelung der Windgeschwindigkeit zur Verachtfachung der Stromleistung, Halbierung aber umgekehrt zu ihrer Verringerung auf ein Achtel. Schwankungen von v wirken sich daher grob mit dritter Potenz verstärkt auf die Schwankungen der Windrad-Leistung aus. Die deutschen Windgeschwindigkeiten, im Binnenland etwa zwischen 0 bis etwa 6 m/s, sind für eine vernünftige Stromausbeute viel zu klein. Offshore und an Meeresküsten ist der Wind zwar wesentlich stärker, man muss aber schon ab etwa v = 8 m/s beginnen die Windrad-Leistung wegen zu großer mechanischer Belastung zu drosseln. Ab etwa v = 13 m/s muss ein Windrad auf die zulässige Maximalleistung (Nennleistung) begrenzt werden. Damit ist gerade der Bereich von sehr hohen Windgeschwindigkeiten nur stark gedrosselt nutzbar.

Bild 4: Beispiel einer Windradkennlinie (blau). Das v3 Gesetz und die Betz-Joukowsky-Grenze werden prinzipiell von einem Windrad nicht erreicht. Die mittleren Windgeschwindigkeiten an der Nordseeküste liegen bei 5,8 bis 5,9 m/s, für Offshore Nordsee um die 9 m/s. Selbst Offshore-Windgeschwindigkeiten lassen daher die Nutzung des sinnvollen Betriebsbereichs  von Windturbinen (grau) nur eingeschränkt in dessen linken Randbereich zu.

 

10.  Eine grundsätzliche Sicherheitsgrenze für Wetter-Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es existiert allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind schnelle Netzstörungen im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, etwa Netz-Abtrennungen durch den plötzlichen Ausfall eines großen Umspanntransformators o.ä., die zum Zusammenbruch des gesamten Netzes führen können.

Um die Auswirkungen dieser kurzfristigen Störungen auf die Stabilität des Netzes im zulässigen Bereich der Frequenzstabilität zu halten, muss ein ausreichend hoher Prozentsatz der elektrischen Gesamtleistung von Synchrongeneratoren mit großen Schwungmassen geliefert werden (Der Stromverbraucherschutz e.V. NEAB gibt als Faustformel permanente 45% an), d.s. die klassischen Dampfkraftwerken mit Kohle oder Uran. Leistungsungleichgewichte in Folge von Störungen werden hier durch Abbremsen, also Ausspeicherung kinetischer Energie bzw. Beschleunigen, also Einspeicherung kinetischer Energie der Schwungmassen verzögerungsfrei ausgeglichen. Auch eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein.

Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Die vorgenannte Publikation gibt eine Mindestleistung von 20 GW für den Regelblock Deutschland an. Mit den momentan noch vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit noch gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung größerer Instabilität und immer höherer Black-Out-Gefahr ändern.

 




Die Öko-Horrorprognosen und ihre perversen Folgen

Diverse Katastrophen rund ums Thema Energie, Ökologie und Ernährung werden vor allem von Medien benutzt, um Zuschauer zu gewinnen oder Zeitungen zu verkaufen.

Politiker und nutzen erfundene Katastrophen, um den Bürgern Angst zu machen, mit der man sie populistisch manipulieren kann. Denken Sie nur an Angela Merkels vermurkste Energiewende von 2011 – ein unmittelbares Ergebnis der medial geschürten Atomangst nach dem Großunfall im AKW Fukuschima/Japan.

Der Youtube-Kanal GROSSE FREIHEIT TV schaut sich die Panikmacherei der Eliten im historischen Rückblick an. Erstaunlich: Der Trick ist gar nicht neu – schon Thomas Malthus orakelte im 18. Jahrhundert, daß die Weltbevölkerung sich exponentiell vermehre, das Essen aber nur linear produziert werde. Und wenn man bedenkt, wie oft uns schon „das Öl ausgeht“, ……

Pikant: Bereits 1992 wurden Kinder eingesetzt, um moralischen Druck aufzubauen.

Mit freundlicher Genehmigung von GROSSE FREIHEIT TV.