Macht endlich Schluss mit der Theorie des atmosphärischen Treibhauseffekts!

Richtigstellung nach der Konfusion durch die tendenziöse und irrige Interpretation des atmosphärischen Gleichgewichts unter dem Einfluss der Schwerkraft

Der Treibhauseffekt gilt inzwischen als „wissenschaftliche Tatsache“, weil ihm Millionen von Menschen und insbesondere die selbsternannten Klimaspezialisten des IPCC, viele politisierte NGOs und besonders in Europa viele Umwelt- und Energieminister anhängen.
Die Hypothese der Klimaerwärmung stützt sich auf zwei Dogmen: den Treibhauseffekt und die Beteiligung des CO2 daran. Ich finde es überraschend und beunruhigend, dass diese „wissenschaftliche Tatsache“ sich mit keinem der allgemein anerkannten Grundprinzipien der Physik wie der Thermodynamik oder dem Gravitationsgleichgewicht der Atmosphäre erklären lässt. Ich möchte mich mit dem zuletzt genannten Prinzip beschäftigen, denn eine irrige Interpretation des Gravitationsgleichgewichts der Atmosphäre hat zur Formulierung der Theorie vom Treibhaus Atmosphäre und der schädlichen Rolle des CO2.
Ich möchte also nicht das thermische und radiative Gleichgewicht der von der Sonne beschienenen Erde behandeln, die durch die Gleichungen von Planck und Stefan-Boltzmann über schwarze Körper erklärt werden, sondern nur die Verwirrung, die durch eine tendenziöse Interpretation des atmosphärischen Gleichgewichts unter dem Einfluss des Gravitationsfeldes der Erde entstanden ist.
Nur wer den Einfluss der Schwerkraft leugnet und die Beobachtungen von Newton und Galilei zurückweist, kann die folgenden Fakten übersehen: Die Atmosphäre wiegt im Durchschnitt auf Meereshöhe etwa zehn Tonnen je Quadratmeter. Mit minimalen Abweichungen von diesem Mittelwert beschäftigen sich die Meteorologen, denn es handelt sich dabei um Hoch- und Tiefdruckgebiete und die mit Luftdruckunterschieden verbundenen Wetterphänomene. Es geht dabei um Schwankungen in der Größenordnung von höchstens 3 Prozent. Das mag vernachlässigbar erscheinen. Da aber riesige Luftmassen im Spiel sind, fällt das doch ins Gewicht. Die Dichte und die Temperatur der Luft nehmen bekanntlich nach oben hin ab. Jeder Bergwanderer spürt das am eigenen Leib. Die Kompression der Atmosphäre durch die Schwerkraft ist also verantwortlich für die Verteilung der Temperaturen in der ganzen Troposphäre, die am Äquator bis in 17 Kilometer Höhe reicht. Oberhalb von dieser Grenze sorgt die Ionisierung der immer spärlicher werdenden Gasmoleküle durch den Sonnenwind und die kosmische Strahlung dafür, dass die bekannten physikalischen Gesetze über das Verhalten idealer Gase nicht mehr gelten.
Die einfache Beziehung zwischen der Höhe, der Dichte und der Temperatur der Luft wird in der Physik durch den adiabatischen Gradienten ausgedrückt. Dieser drückt aus, dass die trockene Luft sich auf 1.000 Meter Höhe um 9,8 und die feuchte Luft aufgrund der großen thermischen Trägheit des Wasserdampfes lediglich um 6,5 Grad Celsius abkühlt.
Ich erinnere daran, dass die Erde sich thermodynamisch wie ein schwarzer Körper mit einer Temperatur von minus 18 Grad Celsius verhält. Diese Temperatur finden wir auf einer mittleren Höhe von 5.000 Metern. Wenn wir den adiabatischen Gradienten anwenden, finden wir auf Meereshöhe eine Durchschnittstemperatur von 14,5 Grad Celsius. Das wird durch Beobachtungen bestätigt. Wenn wir uns den Polen nähern, nimmt die Durchschnittstemperatur selbstverständlich wegen der geringeren mittleren Sonneneinstrahlung ab. Aber der adiabatische Gradient gilt auch dort. In den Wüsten liegt die Temperatur wegen der geringen Luftfeuchtigkeit am Tag über, bei Nacht aber unter dem Mittelwert.
Die Verfechter der Treibhaustheorie verweisen nun auf die Beobachtung unseres Nachbarplaneten Venus. Aus mehreren Gründen ist aber der Vergleich von Erde und Venus irreführend.
Die Umlaufbahn der Venus liegt näher zur Sonne. Venus erhält also mehr Strahlungsenergie als die Erde. Da sie aber gleichzeitig wegen ihrer dichten Wolkendecke eine größere Albedo hat, also mehr Sonnenstrahlen reflektiert als die Erde, spielt ihre größere Nähe zur Sonne keine so große Rolle. Was aber ins Gewicht fällt, ist die sehr viel größere Dichte ihrer Atmosphäre, die größtenteils aus dem schweren Gas CO2 besteht. Diese ist ungefähr 92mal so hoch wie die der Erde. Der atmosphärische Druck beträgt dort 920 Tonnen je Quadratmeter (wie auf der Erde in 1.000 Meter Meerestiefe). Aber der adiabatische Gradient gilt auch auf der Venus. Die Temperatur nimmt auch dort um etwa 9 Grad Celsius je 1.000 Höhenmeter ab.
Da die Dichte der Venus-Atmosphäre jedoch am Boden etwa 95 Kilo je Kubikmeter beträgt, ergibt sich bei der Anwendung des gleichen Gesetzes der adiabatischen Kompression eine Temperatur von 465 Grad. Temperaturen um Null Grad finden sich auf der Venus erst in 50 Kilometer Höhe. Schließlich darf man nicht vergessen, dass ein Tag auf der Venus so lange dauert wie 243 Tage auf der Erde. Starke Konvektionsströme und Stürme sorgen aber für einen  guten Temperaturausgleich zwischen Tag- und Nachseite des Planeten. Deshalb ist es nicht gerechtfertigt, von einem Treibhauseffekt auf der Venus zu sprechen. Der Planet befindet sich vielmehr in einem Strahlungsgleichgewicht mit dem Weltraum. Nur sind dessen Parameter andere als die der Erde. Gäbe es auf der Venus einen durch CO2 verursachten Treibhauseffekt, hätte der Planet längst schmelzen und verdampfen müssen. Stattdessen gibt es darauf der Berge und Ebenen und sogar Vulkane wie auf der Erde – und vielleicht sogar Seen aus überkritischem CO2.
Von daher lässt sich begreifen, warum der vor allem vom NASA-Forscher James Hansen für die Erklärung des Treibhauseffektes bemühte Vergleich zwischen Erde und Venus hinkt. Die Atmosphäre der Venus besteht zu 95 Prozent aus CO2, der Rest aus Stickstoff und Spuren von Schwefeldioxid. Zu Unrecht haben James Hansen oder Al Gore Kritikern entgegnet: „Schauen Sie doch, was auf der Venus los ist!“ Denn nicht wegen des CO2 herrscht auf der Venusoberfläche eine Temperatur von 465 Grad. Diese ergibt sich allein aus der Anwendung fundamentaler Gesetze der Thermodynamik und der Physik idealer Gase. Die Treibhaustheorie widerspricht hingegen den fundamentalen Prinzipien der Physik.
Ich frage mich daher, warum es niemand wagt, den Vertretern der Treibhaustheorie die Stirn zu bieten. Stattdessen folgen die Regierungen blind den vom IPCC und von grünen NGOs vorgerechneten Extrapolationen. Sie schämen sich nicht, offen malthusianistisch zu argumentieren und drohen damit, etliche Länder in die ökonomische und soziale Katastrophe zu führen. 
Für Neugierige bringe ich hier die Gleichung des adiabatischen Gleichgewichts. Der thermodynamische Zustand einer Luftsäule lässt sich vereinfacht folgendermaßen umschreiben:

Dabei ist U die Gesamtenergie, Cp die thermische Kapazität der Atmosphäre (1004 joules/kg/Grad K für trockene Luft, 1012 für feuchte Luft mit durchschnittlich 0,25 % Wasserdampf), T die Temperatur des Abschnitts der Luftsäule (in Grad Kelvin), g die Erdbeschleunigung und h die Höhe in km. Leitet man diese Gleichung ab, erhält man:


(ausgedrückt in K/km). Hier taucht der Term g/Cp, genannt « Adiabatischer Gradient », auf. Dieser beschreibt das Gleichgewicht zwischen dem Druck und der Temperatur der Atmosphäre. Wir können diese Differentialgleichung folgendermaßen umformen:

Da g und Cp positive physikalische Größen sind, sieht man sofort, dass die Verteilung der Temperaturen im Schwerefeld der Erde, wie auch im Schwerefeld beliebiger Planten mit einer Gashülle, mit der Höhe abnimmt.
Die letztgenannte Gleichung kann aufgelöst werden, indem man für h0 die Meereshöhe und für T0 die entsprechende Temperatur einsetzt:

Man findet dann leicht die Bodentemperatur (h0 = 0), indem man in die Gleichung die Höhe von 5 Kilometern für die Isotherme von -18 °C einsetzt, die dem Strahlungsgleichgewicht des Systems Erde-Atmosphäre (nach den Gesetzen von Stefan-Boltzmann) entspricht:
t = – 6,5 (h – 5) – 18 = 32,5 – 18 = 14,5 Grad Celsius. Der Faktor 6,5 entspricht der thermischen Kapazität der mit Wasserdampf beladenen Luft. Der mittlere Wasserdampfgehalt der Atmosphäre liegt ungefähr bei 0,25 Prozent.
Gäbe es in unserer Atmosphäre einen Treibhauseffekt, dann müsste an erster Stelle der Wasserdampf dafür verantwortlich sein. Es gibt in der Atmosphäre 600mal mehr Wasserdampf als Kohlenstoffdioxid. Diesen Faktor 600 muss man noch einmal mit 5 multiplizieren, denn die thermische Kapazität des Wassers liegt bei 4.180 joule/kg/°K gegenüber nur 840 joule/kg/°K für CO2. Wasserdampf besäße also ein 3.000mal so starkes „Treibhauspotenzial“ wie CO2. Wäre unsere Atmosphäre tatsächlich ein Treibhaus, wären die Ozeane längst verdampft.      (Übersetzung: Edgar L. Gärtner) 
*) Original erschienen im französischen Magazin Contrepoints am 5. November 2014
Über den Autor

Jacques Henry ist Biologe. Er arbeitete lange Jahre als Forscher beim CNRS (Centre National de Recherche ScientifiqueI, dem franz. Partner der Max-Planck-Gesellschaft, Henry hat danach als Berater für die Nuklearsparte von Electricité de France (EdF) gearbeitet und befindet sich jetzt im Ruhestand.




EIKE 8. Internationale Klima- und Energiekonferenz in Frankfurt Main : Info-Kurz-Video


Kurzvideo mit einer Auswahl verschiedener Themen die auf der Konferenz am 17.10.14 in Frankfurt/Main behandelt wurden




Die Energiewende: Ein fast endloser Katalog des Versagens!

 1. Bereits bei der Konzeption der Energiewende geschah die größte Planungskatastrophe: Das „Vergessen“ der unverzichtbaren Stromspeicher für den Ausgleich der wetterabhängigen und daher stark schwankenden Leistung der als künftig wichtigste Stromerzeuger auserkorenen Wind- und Solaranlagen – und das fast zwei Jahre andauernde Ignorieren dieser Tatsache. Damit war die Energiewende von Vornherein zum Scheitern verurteilt und jeder dafür ausgegebene Euro vergeudet.
2. Die in einer Panikaktion und ohne ausreichende Prüfung und Debatten per Gesetz beschlossene Stilllegung der Kernkraftwerke reduzierte die Grundlast-Stromerzeugung. Ein Industriezweig, der laufend modernisiert und mit höchster Zuverlässigkeit die Stromversorgung stützte, wird ohne stichhaltigen Grund verschrottet – die Wertevernichtung beträgt viele Milliarden Euro. Damit wurden aber auch alle großspurigen Ankündigungen, die CO2-Emissionen für das zentrale Ziel der ganzen Energiewende – den sog. Klimaschutz – weiterhin beträchtlich zu senken, zur Makulatur. So wurde bereits im ersten Halbjahr 2011 die Begründung für die Energiewende aufgegeben; benutzt wird jedoch dieses leere Argument weiterhin.
Einen zutreffenden Eindruck von der Qualität des  Regierungshandelns erhält man auch, wenn man sich vor Augen führt, dass der Ausstiegsbeschluss nur wenige Monate nach der gesetzlichen Verlängerung der Kernkraftwerks-Laufzeiten erfolgte – zwei Beschlüsse der gleichen Regierung.
3. Die weitaus größte Energiemenge wird in Mittel- und Nordeuropa für die Heizung benötigt. Ein Programm, das die Aufgabe einer Reduzierung dieses Energieverbrauchs in Verbindung mit einer Kostenentlastung angeht, wie es zum Beispiel Dänemark mit der solarthermischen Fernheizung vorführt, hätte Sinn gemacht. Die Regierung hat jedoch fast alle ihre Förderinstrumente, allen voran das EEG, aus unverständlichen Gründen auf die Umstellung der Stromerzeugung auf die sogenannten erneuerbaren Energien fokussiert – und dabei die am Wenigsten geeigneten Techniken ausgewählt.  Diese Fehlentscheidung wird  bis heute trotz aller damit bereits angerichteten Schäden durchgehalten.
4. Außerhalb der EEG-Subventionierungen hat die Regierung die Beeinflussung des Energieverbrauchs für Hausheizungen mittels Gesetzen und Verordnungen unternommen. Und abermals hat man gezielt mit der Energieeinsparverordnung EnEV die am Wenigsten geeignete und besonders teure Sanierungsmaßnahme bevorzugt: Die Wärmedämmung der Hausfassaden. Für Fachleute der Bauphysik kommt diese Maßnahme in ihrer Wirksamkeit erst an vierter oder fünfter Stelle hinter der Dachisolierung, der Isolierung der Kellerdecke, der Modernisierung der Heizungsanlage und dem Einbau neuer Fenster. Für diese zudem fast unwirksame Sanierungsmaßnahme werden von fehlgeleiteten und falsch beratenen Hauseigentümern Milliarden ausgegeben – es handelt sich dabei in Wahrheit um ein Konjunkturprogramm für Dämmstoffhersteller, das weder der Energieeinsparung noch dem Klimaschutz etwas nutzt. Insofern ist das eine für die Energiewendepolitik sehr typische Maßnahme.
5. Die Regierung plant mit ihrer Energiewende, die Stromversorgung des Landes bis 2025 zu 40 % und bis 2035 zu 60 % mit den sog. Erneuerbaren sicherzustellen. Die dabei „vergessenen“, nicht existierenden Speicherkraftwerke stellen gewiss das größte Versagen der Planer dar. Hinzu kommt aber noch eine weitere gravierende Fehleinschätzung: Nach dem Kernkraft-Ausstieg sollte die notwendig verbleibende „konventionelle“ Kraftwerkskapazität vornehmlich durch emissionsärmere Gaskraftwerke realisiert werden.  Gaskraftwerke sind jedoch teure Stromerzeuger und für die Grundlastversorgung ungeeignet. Sie müssen ihre Leistung in den sog. Spitzenlastzeiten – vor allem in den Mittagsstunden – anbieten, um rentabel zu sein. Dieses Marktmodell wurde durch das EEG zerstört, denn das Preisdumping durch  Überflutung des Netzes mit hochsubventioniertem Solarstrom treibt Gaskraftwerke in die Verlustzone. Zahlreiche Stilllegungen – auch modernster Anlagen – sind bereits erfolgt, weitere sind beantragt. An Neubau-Investitionen ist nicht mehr zu denken. Auch die Wirtschaftlichkeit von Steinkohlekraftwerken und sogar die der wenigen Pumpspeicherkraftwerke ist aus dem gleichen Grund bedroht. Damit haben die Energiewende-Planer mit ihrem wichtigsten Instrument EEG nichts anderes geleistet, als einen bisher funktionierenden Teil der deutschen Stromwirtschaft in den Ruin zu treiben und damit die zur Aufrechterhaltung der Netzstabilität und für ihre Energiewende unverzichtbare konventionelle Kraftwerkskapazität mittelfristig zu zerstören.
6.  Bei den Offshore-Windparks hat die Regierung bereits ihre bisherigen Ausbauziele in einer erstaunlichen Einsicht in deren Unerreichbarkeit drastisch zurückgestutzt. Jetzt drohen jedoch hohe Kosten ohne damit verbundenen Nutzen, weil sich Kabelverbindungen als nicht benötigt erweisen könnten. Weiterhin ist die Leistung der bereits errichteten Offshore-Windparks seit Oktober 2013 dramatisch eingebrochen; man sucht die Fehlerursachen. Im Übrigen zeigten die Windräder auf See auch keine deutlich größeren Volllast-Stunden als ihre Gegenstücke an Land, wie es zur Rechtfertigung dieser kostspieligen Anlagen behauptet worden ist. Anscheinend ist die Tatsache, dass sowohl in Schleswig-Holstein als auch in der Deutschen Bucht das gleiche Wetter herrscht, dafür verantwortlich. Der angeblich entscheidende Stützpfeiler der ganzen Energiewende zeigt somit erhebliche Schwächen. Von einer seriösen Planung kann keine Rede sein.
7. Die Planung für den Ausbau des Höchstspannungsnetzes ist in mehrfacher Hinsicht unbrauchbar: Es ist nicht nur zu teuer, sondern auch sinnlos.
Sinnlos ist es, weil der damit von Nord- nach Süddeutschland zu transportierende Windstrom extrem schwankt und wiederholt für Tage und auch Wochen ausfällt. Dieser Strom ist für die damit „versorgten“ süddeutschen Länder, für deren Industrie und für die Bürger völlig unbrauchbar.
Zu teuer sind die geplanten Leitungen, weil sie für die maximal vorkommende Windstromleistung dimensioniert werden, die wetterbedingt nur sehr selten auftritt. Diese Überdimensionierung erzeugt unnötige Mehrkosten.
Ein Abschneiden dieser ohnehin unbrauchbaren Leistungsspitzen durch Abschalten von Windrädern und die konsequente Auslegung der Leitungen für eine deutlich kleinere Maximalleistung wäre die einzig sinnvolle Maßnahme. Die Rücknahme dieses teuren Planungsfehlers ist bisher nicht erfolgt.
8. Die Energiewende-Planer haben Zielwerte für die jährliche Erhöhung der Energieeffizienz festgelegt, die erheblich über den Zahlen liegen, die jahrelang erreicht wurden. Die für diese angenommene, gravierende Beschleunigung des Verbesserungsprozesses angeführten Begründungen sind sämtlich nicht stichhaltig. Das beweist nur die Unkenntnis über die bisherige Entwicklung des spezifischen Energieverbrauchs in der Wirtschaft – insbesondere auch über die Gründe für den systematischen Rückgang der erzielbaren Verbesserungen. Die Zielvorgaben sind irrelevant und niemand wird sie beachten.
9. Die Eigenstromerzeugung ist seit jeher für viele Unternehmen eine Selbstverständlichkeit, besonders für jene, die brennbare Gase als Abfallprodukte ihrer Produktion erhalten. Ferner verfügen viele Unternehmen über leistungsfähige Notstromversorgungen. Mit der Energiewende stiegen die Strompreise, was viele Betriebe dazu bewog, ihre Eigenstromversorgung zu verstärken oder sie neu einzurichten, um weiteren Preiserhöhungen zu entgehen. Die regelmäßigen politischen Bekenntnisse zum angeblichen Nutzen einer unbedingt erstrebenswerten dezentralisierten Stromversorgung mögen den Unternehmen dabei die Gewissheit vermittelt haben, dass diese Eigeninitiativen positiv gesehen und anerkannt werden. Ein Irrtum: Jetzt ging die Regierung auf Gegenkurs.
Eigenstromerzeugung ist plötzlich unsolidarisch, weil sich die Betreiber damit der EEG-Umlage entziehen – mit dem Resultat, dass die Übrigen umso mehr bezahlen müssen. Für Neuanlagen sollen daher künftig ebenfalls Beiträge für die EEG-Umlage bezahlt werden. Der Wegfall jeglicher Verlässlichkeit in der Energiepolitik wird auch in Ziff.14 beschrieben.
10. Auch die Rücksichtslosigkeit gegenüber den Nachbarländern, mit der die deutsche Regierung ihre Energiepolitik seit 2011 vorantrieb, ist unentschuldbar. Inzwischen hat die Energiewende erhebliche Störungen und  massive wirtschaftliche Schäden in der Schweiz und auch in Östereich, Polen und den Niederlanden angerichtet. So sind in der Schweiz die Wasserkraftwerke durch den subventionierten deutschen EEG-Dumpingstrom in Existenznöte geraten. Die deutsche Energiewende trifft also ausgerechnet die umweltfreundlichsten Stromerzeuger im Nachbarland. Gegenmaßnahmen sind absehbar und unvermeidlich.
11. Erst zu Beginn des Jahres 2014 scheint die Regierung begriffen zu haben, dass ihre Energiepolitik, die inzwischen zu den zweithöchsten Strompreisen in Europa geführt hat,  die energieintensive Industrie systematisch aus dem Lande hinaustreibt. Die bereits seit mehreren Jahren klar dokumentierte Zurückhaltung bei Investitionen, die deutlich von den Abschreibungen übertroffen werden, scheint niemand aufgefallen zu sein. Die Absetzbewegung ist bereits im Gange. Jetzt wird versucht, die Industrie wenigstens zum Teil vor weiteren Strompreissteigerungen durch die EEG-Umlage zu schützen. Damit verschlechtert sich die Situation der Industrie weiter, nur langsamer. Die Deindustrialisierung geht also weiter.
12. Vor allem die durch das EEG extrem geförderten Maßnahmen Biomasseanbau für die Stromerzeugung sowie die Windkraftanlagen, die im Vergleich mit konventionellen Kraftwerken zur Erzeugung einer Kilowattstunde Strom das 370-fache (Windkraft) bis 12.400-fache (Biomasseanbau zur Stromerzeugung) an Fläche benötigen, sind durch ihren ins Riesenhafte getriebenen Ausbau zu ebenso riesigen Umweltproblemen geworden, was ebenfalls von vornherein klar war. Während der hochsubventionierte Biomasseanbau  durch seine Monokulturen die Artenvielfalt beeinträchtigt und das Grundwasser durch Nitrate verunreinigt hat, führen die Windparks neben ihrer Landschaftsverschandelung, dem Töten von Vögeln und Fledermäusen und der Gesundheitsschädigung von Menschen neuerdings auch noch zur Abholzung großer Waldflächen. Letzteres ist die Folge einer Windkraft-Offensive der Regierung, die die Bundesländer zu einer stärkeren Nutzung der Wälder für die Errichtung von Windkraftanlagen aufgerufen hat. Dies ist eine Politik, die im Namen des sogenannten Klimaschutzes die Umwelt unseres Landes in einem noch nie dagewesenen Ausmaß zerstört. Der verzweifelte Kampf von bald 1000 Bürgerinitiativen gegen diese Politik hat bisher bei den Verursachern in Berlin keine Wirkung gezeigt.  Es handelt sich nicht mehr um Versagen, sondern um die gezielte Zerstörung der Umwelt aus politischen Gründen.
12. Die Energiewende-Politik hat zu einer Umverteilung von unten nach oben in einem bisher nicht gekannten Ausmaß geführt. Auch diese Auswirkung war von Anfang an bekannt – und daher auch bewusst in Kauf genommen oder sogar gewollt. Die stärkste dieser Umverteilungen wird durch die Subventionierung der Photovoltaik bewirkt, deren Anlagen zum größten Teil auf den Dächern von Einfamilienhäusern und landwirtschaftlichen Gebäuden installiert sind. Bezahlt werden die Profite der Hausbesitzer durch die EEG-Umlagen in den Stromrechnungen der Mietshausbewohner.
Aber auch mit Windparks wird viel Geld verdient, das in die Taschen der Planer, der Errichter, der Dienstleistungsfirmen und – wenn sie nicht getäuscht und hereingelegt worden sind – auch der Betreiber der Windräder fließt. Auch dieses Geld wird von den Stromkunden einkassiert. Bei Photovoltaik-Freiflächenanlagen das Gleiche.
Bemerkenswert bei dieser Umverteilung ist das Schweigen der Sozialpolitiker aller Parteien, die sich ansonsten bei jeder Ungerechtigkeit und sozialen Benachteiligung sehr engagiert zu Wort melden.
14. Die Regierung wählte niemals den einzig akzeptablen Weg, neue, als falsch erkannte Regeln wieder durch bewährte alte Regeln zu ersetzen. Sie wählte stets den Weg des Erlasses neuer Reparatur-Regeln, die ebenso regelmäßig „nicht vorhersehbare“ Nebenwirkungen und Kollateralschäden verursachten.
Die Gesetzes- und Verordnungsflut im Bereich der Energiewirtschaft hatte jedoch noch eine weitere, grundsätzliche Nebenwirkung: Sie zerstörte die Verlässlichkeit für jede Investition in Energieanlagen, insbesondere für Kraftwerksneubauten. Langfristige Investitionen, die sich innerhalb von  20 – 30 Jahren rentieren müssen, benötigen ebenso langfristige Geschäftsgrundlagen. Wenn aber tatsächlich die Bedingungen fast im Jahresrhythmus geändert werden, erstirbt jede Investitionsbereitschaft. Genau das ist jetzt die Situation.
Gemäß dem bisherigen Weg der Regierung in die Planwirtschaft ist die folgende Lösung zu erwarten: Ersatz der nicht erfolgten, aber notwendigen Investitionen durch den Bau von Staatskraftwerken – und damit ein weiterer Schritt in die Verstaatlichung des Energiesektors.
 




Klarstellung zu den Kommentaren zum Beitrag: „Die wahre AGW-Skeptiker-Lehre“

Zu dem Artikel:  Die wahre AGW-Skeptiker-Lehre, von Martin Landvoigt, erschienen am 24.10.2014 auf EIKE, gab es einen Kommentar (# 142 – Dr. Paul), in dem ich von dem Blog-Teilnehmer Dr. Paul bzw. möglicherweise von einem Mitarbeiter des Deutschen Zentrums für Luft- und Raumfahrt (DLR) beschuldigt wurde: 
>> Harde lügt, das wäre bei vielen "Klimaexperten" üblich.: Man kann Strahlung grundsätzlich nicht "markieren" bzw. ihr ansehen wo sie herkommt. Unser Messproblem ist lediglich die Temperatur des Messgeräts selbst, also die Eigenstrahlung des Teleskops.
Das haben wir gelöst durch die Kühlung der in der IR Astronomie üblichen CCD-Elementen (wie sie auch in modernen Digital-Kameras verwendet werden) durch superkalte Flüssigkeiten wie etwa flüssigem Stickstoff – auf in der Regel unter -200°Celsius.
Auch der zusätzliche kleine Trick des Choppens würde nicht klappen, wenn CO2 strahlen könnte.
Harde lügt also. Transmission 0 heißt, es existiert überhaupt KEINE 15µm-Strahlung in der Atmosphäre.
<<
Dem ging voraus, dass ich in einem vorherigen Kommentar # 114 ausgeführt hatte:
>> 5. dass die mit der Strahlungstransfergleichung berechnete Strahlungsausbreitung in der unteren Troposphäre bis auf das optische Fenster um 10 µm identisch ist mit einer Planck’schen Strahlungsverteilung und sehr gut durch entsprechende Spektralmessungen bestätigt wird. <<
Dem wurde sehr heftig von Dr. Paul widersprochen (Kommentar # 125):
>> Sehr geehrter Herr Prof. H. Harde, Ihre Behauptung Nr.5 ist falsch:
http://tinyurl.com/cvrssgr
weiterhin zu Nr.1., 2. und 3.
lässt sich hier NICHT zeigen, dass in der Troposphäre spontane Emission stattfindet!
Die Erklärung liefert das, was man Thermalisieren nennt.
<<
Und im Kommentar #129 führt Paul weiter aus:
>> Deshalb meidet ja jeder Treibhausvertreter die ernsthafte Diskussion der "DLWR-Messung".
Astronomische Frequenzmessungen werden einfach ignoriert, auch von Ihnen.
http://tinyurl.com/cvrssgr
Schreiben Sie an die Uni Stuttgart, nicht an mich!
<<
Dabei ging es um nachfolgende Graphik, die als Quelle auf die DLR und der Link auf die Uni Stuttgart, Institut für Raumfahrtsysteme, hinweist.

Nachdem noch einige weitere Fehlinterpretationen und Anschuldigungen von Paul erhoben wurden, habe ich im Kommentar # 137 hierzu Stellung genommen mit den Worten:
>> Wenn ich so reagieren wollte wie Sie, Dr. Paul, dann würde ich nur fragen: Wollen Sie absichtlich täuschen, also betrügen, wenn Sie auf den obigen Link verweisen und Ihre Behauptung dazu aufstellen? Ich ziehe es aber vor Sie zu fragen, ob hier möglicherweise ein Versehen, ein Missverständnis in der Interpretation eines solchen Diagramms besteht.
Mir sind diese Diagramme sehr wohl bekannt, ich habe sie über viele Jahre in meinen Vorlesungen zur Optischen Nachrichtenübertragung, insbesondere zur Übertragung durch die Atmosphäre, selber verwendet. Hier wird dargestellt, wie transparent die Atmosphäre in den jeweiligen Wellenlängenbereichen für Strahlung, die von außen (für das obere Diagramm spielt es fast keine Rolle ob von unten oder oben) auf die Atmosphäre einfällt. Das Komplement zu 1 gibt das spektrale Absorptionsvermögen, das Sie übrigens in meiner Arbeit zur Abschätzung des Einflusses von CO2 auf eine globale Erwärmung in der Abb. 3 für den kurzwelligen Bereich bis 4 µm und in Abb. 5 für den langwelligen Bereich bis 60 µm mit sehr viel höherer Auflösung wiedergegeben finden.


Um die Transmission – oder äquivalent die Absorption – eines Mediums für die einfallende Strahlung angeben zu können, ist selbstverständlich die Eigenabstrahlung dieses Mediums von der hinter dem Medium gemessenen Gesamtintensität abzuziehen. Dies spielt gerade eine wesentliche Rolle ab 3 µm. Derartige Korrekturen sind eine Selbstverständlichkeit bei spektroskopischen Untersuchungen.

Gerade sehe ich Ihren neuen Kommentar #129:
Ich empfehle Ihnen dringend, sich bei dem SOFIA-Team oder der Uni Stuttgart zu erkundigen, wie solch ein von Ihnen zitiertes Spektrum zu verstehen ist.
<<
Die Antwort von Paul hierauf erfolgte prompt im Kommentar # 142, der oben bereits angeführt wurde. Weitere Ausführungen hierzu unter # 189-Paul:
>> Ist das nun § 187StGB, oder kann man Unwissenheit beim Professor annehmen? <<
und unter #195-Paul:
>> Wissenschaftbetrüger sind auch noch empfindlich! "Gegenstrahlung" der gasförmigen unteren Atmosphäre ist institutionalisierter Betrug. <<
Trotz zweimaliger Aufforderung in Kommentar # 177 und 198 hat mir Dr. Paul bisher nicht mitgeteilt, wer ihm bei der DLR zu dem obigen Diagramm Auskunft erteilt hat und wer insbesondere den Vorwurf der Lüge erhoben hat. Wenn mir hierzu bisher keine Person genannt worden ist, muss ich davon ausgehen, dass dies eine Erfindung von Paul selber ist mit der böswilligen Unterstellung, ich sei ein Lügner und Betrüger.
Selbstverständlich habe ich nach meiner Rückkehr von einer Auslandsreise zwischenzeitlich sowohl schriftlich als auch telefonisch Kontakt mit der DLR aufgenommen. Hierbei wurde mir von Prof. Rapp, dem Leiter des Instituts für Physik der Atmosphäre, bestätigt, dass meine Anfrage zu dem Diagramm und dessen Interpretation dort eingegangen sei und von seinem Institut beantwortet werde, dieses Diagramm aber wohl nicht in seinem Bereich erstellt wurde. Im übrigen sei ihm dies sehr wohl bekannt aus Lehrbüchern und deute nur auf die Transmission der Atmosphäre hin (siehe Achsenbezeichnung), erfasse aber sicher nicht eine Eigenabstrahlung, die in den Strahlungstransfer-Berechnungen über einen eigenen Quellterm des Mediums zu berücksichtigen ist. Eine Aussage, dass ein DLR-Mitarbeiter den Vorwurf der Lüge erhoben habe, halte er für sehr unwahrscheinlich.
Mittlerweile liegt eine schriftliche Antwort des Instituts durch den Abteilungsleiter für Fernerkundung der Atmosphäre, Dr. Meerkötter, vom 6.11.2014 vor:
>> Sehr geehrter Herr Prof. Harde,
Herr Prof. Rapp hat mir Ihre mail weitergeleitet. Zur Entstehung der verlinkten Grafik über die spektrale atmosphärische Transmission kann ich Ihnen leider nichts sagen. Ich selbst führe auch keine Strahlungsmessungen durch. Handelt es sich bei der Grafik überhaupt um das Ergebnis einer Messung? Möglich wäre auch eine numerische Simulation.
Zum Thema der Eigenstrahlung der Atmosphäre möchte ich auf die Strahlungsübertragungsgleichung (SÜG) verweisen, denn diese erklärt in der Tat das Problem. Damit sage ich Ihnen sicher nicht Neues, dennoch möchte ich die folgenden Sätze kurz anfügen.
Die SÜG beschreibt die spektrale Strahldichte (oder nach Integration über den Halbraum die spektrale Strahlungsflussdichte) zum einen aus der entlang eines Weges durch die Atmosphäre direkt transmittierten Strahlung sowie einem Quellterm, welcher im langwelligen Spektralbereich nach Vernachlässigung von Streuprozessen die entlang dieses Weges aufintegrierten Emissionsbeiträge atmosphärischer Schichten enthält. In den Zentren sehr starker Absorptionsbanden geht die Transmission der Atmosphäre gegen Null. Betrachtet man nun die nach unten gerichtete langwellige Strahlung am Boden und vernachlässigt eine Strahlungsquelle am Oberrand der Atmosphäre, dann verbleibt natürlich immer noch der Beitrag thermischer Emission der atmosphärischen Schichten. Entsprechend der Stärke der spektralen Spurengasabsorption liegt das Maximum der Gewichtsfunktion, also der Funktion, welche die Verteilung der nach unten gerichteten atmosphärischen Emissionsbeiträge als Funktion der Höhe beschreibt, in atmosphärischen Schichten mit mehr oder weniger großem Abstand zum Boden. In den Zentren der Absorptionsbanden entstammt die nach unten(!) gerichtete langwellige Strahlung atmosphärischen Schichten unmittelbar über dem Boden, aber sie ist nicht Null.
Allerdings kann der spektrale Nettostrahlungsfluss an der Grenzfläche Boden-Atmosphäre, also die Summe aus dem nach unten und dem nach oben gerichteten Fluss, in den Zentren starker Absorptionsbanden (d.h. bei Schwarzkörperbedingungen) im Fall einer Temperaturgleichheit gegen Null gehen. Spektrale Beiträge zu Erwärmungs- oder Abkühlungsraten in atmosphärischen Schichten ergeben sich aus der Divergenz des spektralen Nettoflusses, d.h. aus den Nettoflussänderungen entlang eines (vertikalen) Weges durch die Atmosphäre. Beiträge zu den Erwärmungsraten liefern dabei in erster Linie Spektralbereiche schwächerer spektraler Absorption, also z.B. die Flanken starker Absorptionsbanden, nicht deren Zentren.
Ich hoffe, Ihnen damit etwas geholfen zu haben.
Viele Grüße,
Ralf Meerkötter <<
Zwischenzeitig gab es zwei weitere Kontakte zu mir benannten Spezialisten vom DLR-Institut für Methodik der Fernerkundung, Prof. Dr. Thomas Trautmann und Dr. Manfred Birk, die beide bestätigten, dass es sich bei dem Diagramm ausschließlich um die Transmission der Atmosphäre für Strahlung einer externen Strahlungsquelle handele und dass dies mit der Eigenemission der Atmosphäre überhaupt nichts zutun habe. Gegenstrahlung kann selbstverständlich mit geeigneten FIR-FT-Spektrometern gemessen werden. Hierfür gibt es viele experimentelle Belege.
Das diskutierte Diagramm – vor allem der obere Graph – wurde von den genannten Fachleuten nicht als Messung sondern als schlichte Rechnung nach Lambert-Beer eingestuft. Bei solch einer Rechnung wird selbstverständlich keine Eigenemission der Atmosphäre berücksichtigt. Deswegen kann dies auch nicht als Beweis für eine fehlende Gegenstrahlung in der Troposphäre angeführt werden.
Soweit also der aktuelle Sachverhalt zu einer im Internet aufgestöberten Graphik, zu der es an der Stelle keine weiteren Erläuterungen gibt und die als Gegenbeweis dafür herangezogen wird, dass es keine Gegenstrahlung und keine Emission von infrarotaktiven Gasen in der Troposphäre gäbe.
Nun ist durchaus Jedem zuzubilligen, dass er einen Sachverhalt falsch interpretiert und daraus weitere falsche Schlüsse ableitet. Nicht zu akzeptieren sind aber derartige persönliche Beleidigungen und Verleumdungen, wie sie hier im Raum stehen (Lügner und Betrüger), weder von einem Dr. Paul noch von einem Mitarbeiter der DLR. Wenn nicht schnellstens von Dr. Paul klargestellt wird, wer ihm bei der DLR Auskunft erteilt und mich der Lüge bezichtigt hat, wird dies zu einer Verleumdungsklage gegen Dr. Paul und gegebenenfalls gegen Unbekannt bei der DLR führen.
H. Harde




Energienutzung und Bevölkerungswachstum

Bild rechts: Die die uns am nächsten gelegene, größere Galaxie Andromeda
13,81 Milliarden Jahre nach dem Urknall, wissen wir, wie die neuesten Messungen der Europäischen Raumsonde Planck zeigen, dass das Universum zu 68,3 Prozent aus  ominöser dunkler Energie (die die Ausdehnung des Alls seit sechs Milliarden Jahren beschleunigt), aus 26,8 Prozent dunkler Materie (vermutlich unbekannte Elementarteilchen, die nicht elektromagnetisch wechselwirken) und lediglich aus 4,9 Prozent gewöhnlicher Materie (Protonen, Neutronen und Elektronen) besteht und die allgemeine Relativitätstheorie von Einstein in diesem Universum gilt.  Nur über diesen winzigen Anteil von 4,9 %, aus dem wir selbst bestehen, wissen wir etwas Bescheid; das Gros des Universums ist rätselhaft.
Die allgemeine Relativitätstheorie erweitert die spezielle Relativitätstheorie und geht für hinreichend kleine Gebiete der Raumzeit in diese über. Außerdem kann sie als eine Erweiterung des newtonschen Gravitationsgesetzes verstanden werden, weil sie dieses im Grenzfall von hinreichend kleinen Massendichten und Geschwindigkeiten liefert. Die einsteinschen Feldgleichungen stellen einen Zusammenhang zwischen einigen Krümmungseigenschaften der Raumzeit und dem Energie-Impuls-Tensor her, der die lokale Massendichte beziehungsweise über Beschreibung: E=mc^2die Energiedichte enthält und damit die relevanten Eigenschaften der Materie charakterisiert. Im Energie-Impuls-Tensor wird berücksichtigt, dass Masse und Energie äquivalent sind; d. h., jede Form der Energie induziert schwere Masse. Der Energie-Impuls-Tensor beinhaltet neben der Massen-Energiedichte (Masse bzw. Energie pro Raumvolumen) weitere Energieformen (z. B. den Druck, den ein Strahlungsfeld ausüben kann). Eine Änderung des Energie-Impuls-Tensors, d. h. eine Änderung der durch ihn beschriebenen Energieverteilungen, hat somit eine Änderung der Struktur der Raumzeit in der Umgebung dieser Energieverteilung zur Folge. Die Struktur der Krümmung der Raumzeit (d. h. des Raumes als auch der Zeit) beeinflusst wiederum die dort befindliche Materie, d. h., Energie, Raum und Zeit stehen in direkter Wechselwirkung. Diese Beeinflussung der Materie, die von den Krümmungen von Raum und Zeit ausgehen, ist im Rahmen unserer Erfahrungswelt nichts anderes als die Gravitation.
 
Das Alter der Sonne  und der Erde wird auf 4,57 Milliarden Jahre geschätzt. Das Leben begann vor ca. 3,5 Milliarden Jahren.  Nach der Theorie der biologischen Evolution entwickelten sich im Laufe von Milliarden Jahren aus vergleichsweise einfachen Lebensformen immer komplexere Lebewesen, bis der Mensch in den letzten 100.000 Jahren auf der Erde erschien.
Im Inneren unserer Sonne herrschen Temperaturen von ca. 15 Millionen °C an ihrer Oberfläche etwa 5500°C. Sie besteht zur Zeit aus 70% Wasserstoff und 28% Helium. Der Rest setzt sich aus schwereren Elementen bis zum Eisen  zusammen. Diese Verhältnisse ändern sich langsam, weil die Sonne im Kern durch Fusion Wasserstoff in Helium umwandelt. In jeder Sekunde werden etwa 564.000.000 Tonnen Wasserstoff in 560.000.000 Tonnen Helium fusioniert. Dabei gehen in jeder Sekunde 4 Millionen Tonnen Masse verloren, die sich in Energie umwandelt und nach der Einsteinschen Beziehung:

E= mc²

Eine Strahlungsleistung von 386 Trillionen Megawatt erzeugen, die seit ca. 4 Milliarden Jahren die wesentliche Energiequelle der Erde ist und die uns noch Milliarden Jahre zur Verfügung stehen wird. Allerdings mit einer geringen Energieflußdichte von ca. 1kW/m²
Doch die Erde hat während  ihrer Entstehungsgeschichte noch andere Energiequellen zu bieten Kohle, Öl und Gasvorkommen, bei denen man heute zunehmend unsicherer wird, ob sie fossilen, biogen Ursprung oder rein chemisch, abiotisch entstanden sind und natürlich die Kernbrennstoffe.
An der fossilen oder „biogenen“ Betrachtungsweise halten auch die wichtigsten Verbände der deutschen Chemie fest.
 Steinkohle ist demnach aus Braunkohle entstanden, diese aus Torf, dieser aus abgestorbenen Bäumen, die in Sumpfgebieten versanken und dann unter Luftabschluss verrotteten.
Diese Theorie führt zwangsläufig zu der strategischen Aussage einer Endlichkeit fossiler Rohstoffe mit all ihren Folgen für die Menschen und letztendlich zu der Feststellung, dass diese Rohstoffe viel zu schade sind, um schnöde verbrannt zu werden.
Mit der „ abiotischen“ Betrachtungsweise ist diese Gefahr gebannt. Diese nun nicht mehr fossilen Rohstoffe bilden sich in der Erdkruste ständig neu, sie füllen leere Reservoire auf, wurden und werden durch tektonische Bewegungen an die Erdoberfläche transportiert. Man muss sie nur finden.
Kernbrennstoffe Uran und Thorium sind gegenüber landläufigen Aussagen in so großen Mengen in der Erdkruste und im Meer enthalten, dass sie bei gegenwärtigem Bedarf  für ca. 5000 Jahre ausreichen. Falls Fusionsreaktoren in Betracht gezogen werden, und das wird in einigen Jahrzehnten sicher der Fall sein, kann durch die Kernenergie eine unbegrenzte Energieversorgung der Menschheit sichergestellt werden.
Bei genauerer Betrachtung muss die Menschheit keine Angst vor Energiemangel haben. Es müssen nur die politischen Weichenstellungen richtig sein.
(Kohlendioxid ist überall vorhanden und das einfachste Alkan, Methan , der Hauptbestandteil von Erdgas entsteht u.a. heute ständig auf dem Meeresgrund in der Nähe von hydrothermalen Schloten. Unter hohen Temperaturen und Drücken und im  Erdinneren vorhandenen Katalysatoren können daraus entsprechend dem Fischer Tropsch – Verfahren höherwertige Kohlenwasserstoffe entstehen. Höhere KWS sind bei Temperaturen oberhalb von etwa 150°C nur stabil, wenn sie unter hohem Druck stehen. Im Erdmantel ist das noch der Fall. Fällt bei hohen Temperaturen der Druck ab, zerfallen diese KWS in Kohlenstoff und Methan. Tatsächlich werden oberhalb von Gas- und Ölvorkommen oft Steinkohlelager gefunden, oder – umgekehrt betrachtet – unterhalb von Steinkohle Öl und Gas. Steinkohle enthält große Mengen an Methan.)
Der Zugriff des Menschen auf Energiesysteme setzt die Rahmenbedingungen, unter denen sich gesellschaftliche, ökonomische oder kulturelle Strukturen bilden konnten und können und bestimmt die Grundzüge einer Gesellschaft.
Die Zivilisationsgeschichte der Menschheit kann entsprechend  der Nutzung der Energiesysteme in drei Abschnitte aufgeteilt werden.
Der erste dieser Abschnitte war das Zeitalter der Jäger und Sammler. Es überdeckte die meiste Zeit menschlicher Existenz. In dieser Zeit deckte der Mensch seinen Energiebedarf in Form von Nahrung und Brennholz unmittelbar aus den solaren Energieflüssen und der von ihnen produzierten Biomasse.
Dieser Bedarf pro Kopf und Jahr betrug ca. 2,5 GJ für den einfachen Sammler pflanzlicher Nahrung während der 600.000 Jahre vor der Beherrschung des Feuers und 7,5 GJ für den Jäger und Sammler mit heimischem Herd vor 100.000 Jahren. Wo die Menschen in Wäldern und von der Jagd lebten, erlaubte das Nahrungsmittelangebot üblicherweise höchstens 10 Menschen pro km².
Darauf folgte das Zeitalter der Bauern und Handwerker mit rund 10.000-jähriger Dauer, in dem der Energiebedarf  auf ca.20 GJ für den einfachen Bauern und 40 GJ für die Mitglieder der hochzivilisierten mittelalterlichen Agrargesellschaften, in denen die Handwerker das Feuer in immer größerem Maße technisch, insbesondere zur Metallverarbeitung nutzten.
Dieses Zeitalter wurde vor ca. 200 Jahren vom gegenwärtigen Industriezeitalter abgelöst mit weiter steigendem Energieverbrauch. 2003 lag der pro Kopf und Tag Energieverbrauch in Nordamerika bei 270 GJ  in Europa bei 140 GJ. Deutschland hatte einen Bedarf von 180 GJ. China und Südamerika lagen bei ca. 40 GJ und Indien bei ca.25 GJ.
In der ersten Phase bis vor etwa 10.000 Jahren lebten weltweit etwa 5-10 Millionen Menschen. Diese Zahl wuchs auf ca. 250 Millionen vor etwa 2000 Jahren und  stieg bis zum Jahr 1650 auf etwa 500 Millionen Menschen weltweit.
In dieser Periode wurde der Wärmebedarf zum Kochen, zum Erwärmen der Häuser und der Herstellung von Ziegeln sowie zum Schmelzen und Bearbeiten von Metallen mit Biomasse gedeckt. Neben Pflanzenresten wie Stroh  ( 18, 5 MJ/ Kg) dienten auch tierische Exkremente als Brennstoff. Weitaus wichtigster Brennstoff war aber Holz (20 MJ/Kg). Der Energieverbrauch einer vorindustriellen Stadt wird je nach Klima und vorhandenem Handwerk auf 10 bis 30 W/m² geschätzt, um diesen Bedarf nachhaltig mit Holz zu decken war mindestens die 50 bis 150 fache Fläche der Stadt erforderlich. Holz diente auch als Baustoff für Häuser und die zunehmend gebauten Segelschiffe (ein hochseetaugliches Schiff benötigte bis zu 3000 Eichen). So kam es immer wieder zu Holzmangel- vor allem als das Schmelzen von Eisen zunahm-. Zur Produktion von 1 Tonne Eisen brauchte man etwa 1.000 Tonnen Holz. Der Waldbestand in Europa ging bis 1600 auf etwa 20% seiner ursprünglichen Fläche zurück.  In dieser Zeit hätte sich niemand vorstellen können, dass die Erdbevölkerung einmal auf 7 Milliarden Menschen wachsen würde und dass sich diese einen höheren pro Kopf Energieverbrauch von 70GJ  gegenüber 40 GJ pro Jahr leisten könnten.
Der Holzmangel führte schließlich dazu, dass der Mensch gezwungen wurde auf Kohle zur Energieerzeugung umzusteigen. Ein unfreiwilliger Schritt in die Nutzung von Materialien höherer Energiedichte, mit zwangsläufig nötigen  Veränderungen der Handhabung dieser neuen Technik.
Entscheidend beeinflusst wurde die Entwicklung durch die Erfindung der Dampfmaschine, deren erster verwendbarer Typ auf das Jahr 1712 und auf Thomas Newcomen zurückgeht. Obwohl sie nur einen Wirkungsgrad von 0,5% hatte, hat sie den Einsatz von Kohle mit einer um den Faktor 2 höheren Energiedichte gegenüber Holz als Energiequelle maßgeblich beeinflusst. Da nun das Wasser auch aus tieferen Gruben abgepumpt werden konnte, wurde Kohle  auch aus tieferen Schichten geborgen. Kohle beschleunigte also den Kohleverbrauch. Die Verbesserungen von James Watt brachten den Wirkungsgrad auf 3%. Die Dampfmaschine setzte sich Anfang des 18. Jahrhunderts nun zunehmend als stationäre und mobile Energiequelle durch und bildete die Grundlage der industriellen Revolution.
Der Kohleverbrauch stieg schnell von 10 Millionen Tonnen im Jahr 1800 über 76 Millionen Tonnen im Jahr 1850 auf 760 Millionen Tonnen ( 23 EJ) im Jahr 1900. Kohle deckte 90% des weltweiten Energiebedarfs. Ab 1910 folgten auf Grund seiner gegenüber Kohle höheren Energiedichte Erdöl und ab 1930 auch Erdgas. Seit 1970 gewinnt auch die Kernkraft an Bedeutung.

Die  Weltbevölkerung erreichte 1850 die 1 Milliarden Grenze
Die Kohleförderung war im Wesentlichen auf die europäischen Länder begrenzt, erst ab dem Jahr 1890 wurde Kohle auch in den USA zum wichtigsten Brennstoff. Kurz vor dem ersten Weltkrieg hatte Deutschland das bisher führende England  in der Kohleförderung eingeholt. Ein Grund zum Eintritt Englands in den 1. Weltkrieg?

Der Energieverbrauch stieg laufend weiter und erreichte 1990 einen Wert von 300EJ:

Im Jahr 2010 hatte er schon 500 EJ erreicht und wird bis 2040 nochmals um 56% steigen, wie die Internationale Energie Agentur prognostiziert hat. Dann werden ca. 800 EJ verbraucht.
Die Weltbevölkerung stieg von 1 Mrd. im Jahr 1850 auf  4 Mrd. im Jahr 1975 und wird 2040 eine Zahl um die 9 Mrd. erreichen. Dann werden ca. 5 Mrd. Menschen in Asien und 2,5 Mrd. Menschen in Afrika leben. Europa wird in seiner Bevölkerungszahl  stabil bleiben. Das Bundesinstitut für Bevölkerungsforschung zeigt in seiner Darstellung  zwar eine Verlangsamung der Wachstumsgeschwindigkeit. Doch ein weiterer Zuwachs der Weltbevölkerung, der im Wesentlichen in Asien und Afrika stattfindet, wird  auch in dieser Untersuchung prognostiziert. Im Jahr 2100 werden danach fast 11 Mrd. Menschen die Erde bevölkern.  Es gibt auch Studien, die von 16 Mrd. Menschen ausgehen.

Interessant ist nun eine Gegenüberstellung von Weltenenergieumsatz und Bevölkerungswachstum.
 
Da sich sowohl das Bevölkerungswachstum auf der Erde kaum steuern lässt, als auch das Streben der menschen nach Wohlstand und Lebensverbesserung eine Grundhaltung ist, kann von einem überproportionalen Anstieg des pro Kopf- Energieverbrauchs in Asien und Afrika in den nächsten Jahrzehnten ausgegangen werden. Wenn diese Menschen auch nur den Verbrauch von Europa beanspruchen liefert eine Abschätzung für die 7,5 Mrd. Menschen in Asien und Afrika einen Verbrauch von 750 EJ zusätzlich. Wir lägen dann bereits bei 1250 EJ. Rechnen wir mit 16 Mrd. Menschen und einem Verbrauch von Europa, so würde die Erdbevölkerung  2250 EJ benötigen.
Exxon Mobil prognostiziert einen Anstieg von heute 11 Mrd Tonnen Oeläquvalenten auf 17 Mrd Tonnen im Jahr 2030, also auch einen Anstieg von 55%. Dabei werden Öl und Gas die wichtigsten Energieträger mit ca. 60% sein.
Kohle wird auf 20% absinken und der nicht fossilen Energieträger wird bei ca. 20% liegen. Fossile Energieträger werden dann immer noch ca. 80% des Weltenergieverbrauchs liefern.
Von diesen 20% wird der überwiegende Teil aus erneuerbaren Energien (hier vorwiegend aus Biomasse und Müllverbrennung) und aus der Kernkraft stammen. Wind und Solarenergie  werden zusammen nur einen Betrag von unter 1% liefern können. Die Kernenergie wird bei ca. 10% liegen.
Reicht das zur Versorgung der Menschen. Der Club of Rome sagt nein, er prognostiziert eine optimale Erdbevölkerung von maximal 2 Mrd. Menschen.
  
Ausgehend von den 90 Mio. km² Ackerfläche und Wald auf der Erde, bedeutet das eine Bevölkerungsdichte von 20 Menschen pro km² also Werte aus der Vorgeschichte der Menschen, als diese nur vom Jagen und Sammeln lebte.
Dieser Vorschlag hat zwar für viel internationale Aufmerksamkeit  gesorgt, stellt aber nicht mehr als eine fragwürdiges Gedankengebäude dar. Es gibt andere Lösungen für die Menschheit als den Rückweg zu den Ursprüngen in der Vorgeschichte.
Was soll mit den schon überzähligen 5 Mrd. Menschen auf der Welt geschehen und warum nutzen wir nicht Energiequellen, die uns zur Verfügung stehen?
Die Menschheit hat über Jahrtausende nur chemische Energie verschiedener Energieflußdichte genutzt. Zuerst war die Verbrennung von Holz und Torf, dann von Kohle, Öl und Gas und jedesmal wurden schrittweise  höhere Energiedichte der Materialien und angepasste Verfahren genutzt und damit eine Verbesserung des Gemeinwohls der Bevölkerung erreicht. Eine Vergrößerung der Weltbevölkerung war die augenscheinliche Folge dieser Entwicklung. Dabei war die Steigerung der Energiedichte marginal. Der Übergang Torf auf höherwertige fossile Rohstoffe, die eine nur um den Faktor 2 höhere Energiedichte haben hat zu einer Zunahme der Weltbevölkerung um den Faktor 1000 geführt.
Was geschieht, wenn die Menschheit zur intensiven Nutzung der Kernenergie  übergeht und Energiedichten nutzbar werden, die das 10.000 fache der chemischen Energieträger betragen?
Die fragwürde Diskussion über peak oil oder peak gas wäre ebenso obsolet wie  die unsinnige Diskussion über eine menschengemachte Klimakatastrophe. Die Menschheit würde zur Energierzeugung keine fossilen Rohstoffe mehr benötigen und auf  nuklearen Brennstoff  übergehen, der für die nächsten 1000 Jahre sicher vorhanden ist. Vor allem wäre eine Verbesserung des Gemeinwohls für eine uneingeschränkt wachsende Erdbevölkerung sichergestellt.
Der überfällige nächste Schritt im Prozess der Evolution der Menschen ist die Gesellschaft der Kernspaltung und Kernfusion  ausgehend von einer Gesellschaft der Holzverbrennung über eine kohlebasierte Ökonomie, gefolgt von Öl und  Gas.
Erneuerbare Energien können diese Aufgabe nicht erfüllen. Sie stellen mit ihren geringen Energiedichten einen evolutionären Rückschritt dar.
Zum Glück ist Deutschland das einzige größere Land auf der Welt, das den Ausstieg aus der Kernenergie gesetzlich festgelegt hat. Aber mit einem Primärenergiebedarf von ca. 12 EJ im Jahr 2030 ist diese Außenseiterposition für die weltweite Entwicklung bedeutungslos. Deutschland schadet sich nur selbst.