Konferenz „Berlin Energy Transition Dialogue“ in Berlin – Am deutschen Wesen soll das Klima genesen

„Wir zeigen, dass Klimaschutz, Energieversorgungssicherheit und wirtschaftliches Wachstum zusammen passen und einander nicht ausschließen“, so Steinmeier laut der Focus-Meldung. Die hochrangige Besetzung des Auditoriums hängt der Meldung zufolge auch damit zusammen, dass Deutschland derzeit den G7-Vorsitz der wichtigsten westlichen Industrieländer hat und der Weltklimaschutzkonferenz im Dezember in Paris zum Erfolg verhelfen will. „Gemeinsam mit unseren Partnern aus aller Welt wollen wir Wege zu einer nachhaltigen, sicheren und kostengünstigen Energieversorgung entwickeln“, wird Steinmeier zitiert.

Bild rechts: Bundesminister Sigmar Gabriel (1. Reihe, 3.v.l.) und Außenminister Frank-Walter Steinmeier (1. Reihe, 2.v.r.) mit Teilnehmern des "Berlin Energy Transition Dialogue"; © BMWi

Gabriel schlägt in dieselbe Kerbe

In diese Kerbe schlug der gleichen Meldung zufolge auch Bundeswirtschaftsminister Sigmar Gabriel (SPD), der ausführte, dass Deutschland dank der Energiewende künftig nicht nur weniger Öl und Gas im Ausland kaufen müsse: Die Entwicklung neuer, energiesparender Technologien werde auch deutschen Firmen auf den Weltmärkten helfen. „Damit unser Weg gelingt, brauchen wir für eine erfolgreiche Energiewende eine enge Abstimmung mit unseren europäischen und internationalen Partnern“, so der Vizekanzler .

Deutschland spielt den Lehrmeister der Welt für die kommende Pariser Klimakonferenz 

Diese Konferenz reiht sich ein in eine ganze Serie ähnlich gelagerter Initiativen, mit denen Deutschland seit Monaten auf europäischer wie auch auf internationaler Ebene versucht, bei der „Rettung des Weltklimas“ die Vorreiterrolle zu übernehmen. Ziel ist es, der Klimakonferenz in Paris im Dezember zum Erfolg zu verhelfen, indem scharfe und bindende Ziele zur Verringerung des weltweiten CO2-Ausstosses gefasst werden. Dazu wurden sowohl in Deutschland als auch – auf deutschen Druck hin – auch auf europäischer Ebene äußerst ehrgeizige (soll heißen unrealistische) Ziele zur CO2-Reduktion verabschiedet. 

Angela Merkel ist die treibende Kraft

Treibende Kraft hinter diesen Initiativen, die auch von Bundesumweltministerin Barbara Hendricks mit vorangetrieben werden, ist Bundeskanzlerin Angela Merkel. Die Pfarrerstochter treibt den „Klimaschutz“ durch Exkommunikation des CO2 ebenso wie den von ihr verantworteten Atomausstieg mit geradezu pastoralem Eifer voran. Bestellte Gutachten wie die vom "Wissenschaftlichen Beirat globale Umwelt" (WBGU) "zur großen Transformation" oder dem ständig Rot-Alarm schlagenden Potsdam Institut für Klimafolgenforschung (PIK) sind dabei Mittel zum Zweck. Mit Hilfe dieser bestellten Zeugenschaft von in der medialen Öffentlichkeit anerkannten Experten kann sie ihre Agenda als objektiv und alternativlos darstellen. Dazu nutzt sie auch ihre internationalen Kontakte auf höchster Ebene, u.a. zu Obama und dem Papst. Dieser hat in letzter Zeit Signale aussendet, dass die katholische Kirche der "Glaubensgemeinschaft der Klimabewegten" Unterstützung leisten könnte.

Selbst bei ihrem kürzlichen Besuch in Japan [FAZ] versuchte Merkel mit großem Einsatz, die inzwischen längst nicht mehr so atomkritischen Japaner vom deutschen Weg – Kampf gegen Kohle und Kernkraft zugleich – zu überzeugen. Besonderes Feingefühl für die Kultur des Gastlandes ließ sie allerdings nicht erkennen, als sie versuchte, einem Roboter aus Japan, einem Land, in dem man sich voreinander ohne Körperkontakt verbeugt, die Hand zu schütteln. Die Gastgeber nahmen diesen Gesichtsverlust ebenso wie die Belehrungsversuche höflich mit einem gelassenen Lächeln zur Kenntnis und werden sicherlich ihre Programmierer angewiesen haben, ihre Systeme schleunigst so „fool-proof“ im eigentlichsten Sinne des Wortes zu machen, dass selbst dem tumbesten ausländischen Besucher in Zukunft solche vermeidbaren Peinlichkeiten erspart bleiben.

Mitarbeiter in Partei und Kabinett werden nach Wohlverhalten ausgesucht

Wobei diese Sache gleichzeitig ein grelles Schlaglicht auf die Qualität der Personalpolitik unserer höchsten Regierungskreise wirft. Entscheidende Kriterien der Auswahl scheinen stromlinienförmige Anpassung an die Vorstellungen und Wünsche der Führungsfigur zu sein. Sachkunde zum Beispiel bezüglich der Kenntnis fremder Mentalitäten und Kulturen scheint dagegen in den Stellenbeschreibungen zu fehlen.

Einer der wenigen im Kabinett, von dem man ab und zu den Eindruck erhält, dass er sich noch die Fähigkeit zu unabhängigem Denken bewahrt hat, scheint Minister Gabriel sein, der im Zusammenhang mit der Energiewende schon vor knapp einem Jahr folgende bemerkenswerten Aussagen tätigte:

„Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.“

„Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.“

„Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

Natürlich ist und bleibt S. Gabriel einer der Hauptverantwortlichen der aktuellen Energiewendepolitik, und er wird sicherlich nicht seine Karriere mit Alleingängen riskieren. Aber in dem Haufen sonstiger Jasager im Kabinett scheint er fast der einzige zu sein, der intelligent genug ist, um zu verstehen, was man da mit Deutschland zurzeit anrichtet.

Quellen

[FOCU] http://www.focus.de/finanzen/news/wirtschaftsticker/unternehmen-deutschland-will-oeko-energien-weltweit-zum-durchbruch-verhelfen_id_4570969.html 

[FAZ] http://www.faz.net/aktuell/politik/ausland/asien/angela-merkel-wirbt-fuer-atomausstieg-bei-japan-besuch-13471829.html




FDP MdL: Grüne Steinzeitökonomie beenden. Für einen Neuanfang in der Energiepolitik.

Mit dem Ausbau erneuerbarer Energien will die Bundesregierung die Energieversorgung in Deutschland auf eine neue Grundlage stellen. Strom soll klimafreundlich, preiswert und versorgungssicher produziert werden. Diese "Energiewende" schaffe Millionen neuer Jobs in der Ökoindustrie und reduziere unsere Abhängigkeit von Öl- und Gasimporten aus den Krisenregionen der Welt. 

Was klingt, wie das energiepolitische "Utopia", ist der ernstgemeinte Anspruch deutscher Energiepolitik. Parteien übertreffen sich in einem Wettbewerb der schönen Worte und guten Absichten. Mit der Realität haben diese aber wenig zu tun. Alle wichtigen Ziele wurden verfehlt. Die deutschen Kohlendioxidemissionen steigen trotz gigantischer Subventionen für Erneuerbare Energie, die Kosten laufen aus dem Ruder, und die Versorgungssicherheit des Stromnetzes ist zunehmend gefährdet. Der flächendeckende Zubau von Solar- und Windkraftanlagen führt zu massiven Konflikten mit dem Natur- und Landschaftsschutz. Immer mehr Bürger wenden sich von der "Energiewende" ab.  

Es ist eine grundlegende Kurskorrektur notwendig. Wir brauchen eine Energiepolitik mit wirtschaftlichem Verstand, eine Energiepolitik, die die Gesetze der Physik versteht und Innovationen fördert statt bremst. Energieerzeugung muss sich an den Bedürfnissen der Verbraucher, nicht an politischen Ideologien ausrichten. Statt grüner Steinzeitökonomie müssen endlich wieder marktwirtschaftliche Prinzipien und ordnungspolitische Grundsätze Platz greifen, wenn Deutschland energiepolitisch nicht völlig gegen die Wand gefahren werden soll….

….Das seither mehrfach angepasste EEG garantiert auf zwanzig Jahre Vergütungen für die Erzeugung von Ökostrom und verpflichtet die Versorger zum Anschluss der Anlagen sowie zur Abnahme und Einspeisung von Grünstrom. Mit diesem beispiellosen "Rund-Um-Sorglos-Paket" werden Investoren (fast) alle Risiken und Aufgaben eines Unternehmers per Gesetz zu Lasten der Verbraucher abgenommen. Vermarktung, Preisgestaltung, Produktivität, Innovationen – damit müssen sich die als Pioniere gefeierten Ökoinvestoren nicht beschäftigen. Auch wie die speziellen Herausforderungen von Energieversorgungssystemen, konkret die Sicherstellung der Netzstabilität und Versorgungssicherheit, gemeistert werden sollen, ist nicht deren Problem.

Diese Planwirtschaft hat maßgeblich dazu beigetragen die gesamte Energiewirtschaft, nicht nur in Deutschland, in eine tiefe Krise zu führen.  Wenn Markt und Wettbewerb ausgeschaltet werden, entstehen keine Innovationen, gibt es keine Anreize, etwas zu verbessern und die Produktivität zu erhöhen. Wer sich am Markt behaupten muss, steht dagegen ständig unter Druck, besser und oder günstiger zu werden und ist viel stärker auf den Verbraucher und seine Bedürfnisse orientiert. 

Für Betreiber von Windkraft- und Solaranlagen spielt das alles dagegen keine Rolle. Sie können wie auf einer Insel agieren, losgelöst von allem, was herum passiert. Die Ökostromproduktion ist blind und taub gegenüber allen Impulsen und Signalen des Marktes. Risiken tragen nur die Verbraucher und die nicht subventionierten Wettbewerber im Bereich der konventionellen Stromerzeugung. Doch wenn Markt und Wettbewerb ausgeschaltet werden folgt, Stagnation. Wie aus dem Lehrbuch zeigt das EEG, wie staatswirtschaftlich orientierte Politik die Entwicklung einer preisgünstigen, klimafreundlichen und technisch tragfähigen Energieerzeugung verhindert. 

So haben die deutschen Verbraucher bisher rund 150 Milliarden Euro an Subventionen für Erneuerbare Energien aufbringen müssen. In den letzten Jahren jeweils deutlich mehr als 20 Milliarden Euro. Die deutsche Klimabilanz ist deshalb aber nicht besser geworden. Im Gegenteil: Laut Bundesumweltamt steigen die CO-2 Emissionen Jahr für Jahr. Die Expertenkommission der Bundesregierung schreibt in ihrem aktuellen Bericht, dass das EEG kein Beitrag zu einem effektiven Klimaschutz darstellt und damit das eigentliche Hauptziel verfehlt. Zu einer ähnlichen Bewertung kommt der dritte Teilbericht zum Fünften Sachstandsbericht des IPCC, besser bekannt als "Weltklimarat" der Vereinten Nationen.

….Dieses intelligente und technologieoffene Instrument der europäischen Ebene (Anmerkung der EIKE Redaktion: gemeint ist der ebenso kostentreibende wie unnütze Emissionshandel) wird jedoch in Deutschland durch das dumpfe und starre EEG weitgehend ausgeschaltet. Hierzulande definiert nämlich das Gesetz auf zwanzig Jahre im Voraus, welche Technologien zu welchen Kosten zum Einsatz kommen sollen. So fließt mit über 10 Milliarden Euro jährlich der größte Teil der EEG-Umlage in die Photovoltaik und damit ausgerechnet in die Technologie, die die schlechteste CO-2-Vermeidungsbilanz aufweist. Im Vergleich zu anderen Maßnahmen, zum Beispiel die Modernisierung von Braunkohlekraftwerken in Polen, kostet die Vermeidung einer Tonne CO-2 durch Subventionierung von Solarstrom das Vierzigfache…..  

 

….Auch den komplexen technischen Anforderungen an die Energieversorgung eines modernen Industriestaates wird das planwirtschaftliche EEG nicht einmal im Ansatz gerecht. Es ist gegenüber der Notwendigkeit blind, dass elektrischer Strom aufgrund seiner physikalischen Eigenschaften ein besonderes Gut ist. Für die Versorgungssicherheit eines Stromnetzes ist es irrelevant, ob auf Jahressicht 30 oder 40 Prozent des Verbrauches aus erneuerbaren Energiequellen stammt. Entscheidend ist alleine, ob entsprechend des Lastganges, also der Verlaufskurve des Stromverbrauches, in jedem Augenblick die notwendige Menge an Energie verfügbar ist. Wird zu viel oder zu wenig Strom eingespeist, droht der Netzkollaps. 

Die mit Gas oder Kohle betriebenen konventionellen Kraftwerke können nach dem Bedarf der Verbraucher, also des Lastganges, gesteuert werden. Das gleiche gilt für Kernkraftwerke. Die Verbrauchskurven sind regelhaft, d.h. die Versorger wissen genau, dass die Spitzen werktags zur Mittagszeit erreicht werden und die geringste Leistung sonntags in der Nacht zur Verfügung stehen muss. Im Winter steigt die Kurve gegenüber den Sommermonaten, da beispielsweise mehr Strom für Beleuchtung notwendig ist. Kohle- und Kernkraftwerke arbeiten im Bereich der Grundlast, d.h. rund um die Uhr, Tag für Tag, Jahr für Jahr. Gaskraftwerke werden in der Regel zugeschaltet, um den stundenweisen Mehrbedarf an Leistung zu befriedigen.

Mit dem Ausbau erneuerbarer Energien kommt es zu einem Paradigmenwechsel. Die grundlegenden Vorzeichen der Stromversorgung ändern sich. Wind- und Sonnenstrom werden nämlich nicht so erzeugt, wie es der Energiebedarf der Verbraucher verlangt, sondern wie es das Wetter möglich macht. Logischerweise hängt die Leistung der Solarkraftwerke vom Stand der Sonne ab. Wenn die Sonne untergeht, geht auch die elektrische Leistung dieser Kraftwerke auf Null. 

Die in Deutschland installierte Solarstromleistung betrug im Februar 2015 insgesamt 38,3 Gigawatt. Das entspricht theoretisch der Leistungsfähigkeit von 38 Atomkraftwerken. In den Wintermonaten lässt sich die Sonne bekanntlich aber kaum in unseren Breitengraden sehen, und so standen durchschnittlich nur 2 GW Leistung tatsächlich zur Verfügung, was einer mageren Auslastung von etwas mehr als 5 Prozent entspricht. An den wenigen sonnigen Tagen, beispielsweise am 20. Februar, standen zur Mittagszeit fast 18 GW zur Verfügung. An den bewölkten Tagen schwankte die Leistung dagegen zwischen Null und 6 GW. 

Eine verlässliche Stromversorgung ist auf dieser Basis schlicht unmöglich. Selbst wenn die installierte Solarkraftleistung verzehnfacht würde, wäre eine Stromversorgung aufgrund der Schwankungen nicht möglich. Wenn keine Sonne scheint, kann auch kein Strom erzeugt werden, egal wie viele Solarmodule auf den Dächern und Feldern stehen. An sonnigen Tagen würde die Produktion dagegen durch die Decke schießen und viel zu viel Strom erzeugt, der den Ökoinvestoren bezahlt werden müsste, aber ohne Speichertechnologien völlig unbrauchbar ist. Im Gegenteil: Die Ableitung und Verwertung dieses "Strommülls" führt noch zu erheblichen Zusatzkosten. 

Genau die gleichen technischen Probleme macht auch die Windkraft. Von den 27.000 deutschen Windrädern mit einer installierten Leistung von 40 GW stehen regelmäßig etwa 26.900 Windkraftanlagen still, und zwar nicht nur in den windschwachen Sommermonaten, sondern auch im Januar oder Februar. Schauen wir auf die Zahlen. Im Februar lag die Leistungsspitze der Windkraft bei 24,9 GW, was einer Auslastung von 62,5 Prozent entspricht. Das Minimum wurde bei 0,26 GW (0,7 Prozent Auslastung) erreicht. Mit jeder neuen Windkraftanlage wird diese Leistungsschere größer und das Problem der Netzstabilität verschärft. Obwohl in ganz Deutschland Windkraftanlagen verteilt sind, kommt es zu keiner Glättung der eingespeisten Leistungen. Die Wetterdaten belegen vielmehr eine enge Korrelation der windstarken deutschen Regionen. Da, wo viel Wind weht, weht er meistens gleichzeitig, und wenn Flaute herrscht, dann im ganzen Land. 

Im Verhältnis zur Sonnenstromerzeugung hat die Windenergieerzeugung eine noch größere Schwankungsbreite, worunter die Versorgungssicherheit leidet. Auch wenn nicht genau absehbar ist, wie groß die Solarstromleistung von Tag zu Tag ist, fällt Solarstrom regelmäßig in den Mittagsstunden an, weil der Lauf der Sonne einem Naturgesetz folgt. Da die Verbrauchsspitzen auch zur Mittagszeit auftreten, ist Solarstrom in der gegenwärtigen Größenordnung zwar sehr teuer, aber technisch verwertbar. 

Der Wind weht dagegen nach keinen festen Regeln und so fällt die gesamte deutsche Windstromerzeugung manchmal tagelang am Stück aus, weil Hochdruckwetterlagen vorherrschen. Und wenn der Wind dann einmal stark weht, dann eben auch in den Nachtstunden, in denen der Stromverbrauch am geringsten ist. Windkraft ist also nicht nur sehr unzuverlässig, ist erzeugt Strom eben auch dann, wenn er am wenigsten benötigt wird. Von allen erneuerbaren Energiequellen ist Windkraft deshalb am schlechtesten geeignet und stellt das Stromnetz vor die größten Herausforderungen.

Für den Rhythmus eines modernen Industriestaates hat der beschriebene Paradigmenwechsel – weg vom Vorrang des Bedarfes, hin zum Vorrang der Verfügbarkeit – dramatische Auswirkungen. Synchronisierung und Standardisierung von Handeln sind grundlegende Voraussetzungen moderner, arbeitsteiliger Gesellschaften. Das Arbeitsleben beginnt morgens und endet abends und nicht dann, wenn Strom gerade da ist oder nicht. 

Alles, was jetzt unter so schönen Schlagwörtern wie "Lastgangmanagement" oder "smart grids" als Lösungsvorschlag präsentiert wird, ist nichts anderes als der Versuch, die beschriebenen grundlegenden technischen Probleme erneuerbarer Energien zu übertünchen. Das berühmte Beispiel von der Waschmaschine, die in Zukunft nachts laufen soll, wenn gerade Windstrom im Netz ist, hat mit den realen Problemen nichts zu tun. 

Die großen Stromverbraucher, die Deutsche Bahn, die Betriebe der chemischen Industrie, die Unternehmen in der Metallverarbeitung oder die Rechenzentren, sind auf eine sichere, kontinuierlich verfügbare und im internationalen Vergleich bezahlbare Stromversorgung angewiesen. Deutsche Werke und Standorte sind Teil eng vernetzter, länderübergreifender Wertschöpfungsketten. Schon die Idee, dass eine Exportnation wie Deutschland seine Energieversorgung und damit auch die Produktionsprozesse nach dem Lauf der Sonne oder der momentanen Windgeschwindigkeit ausrichten könne, ist lächerlich.

Ohne konventionelle Kraftwerke ist eine sichere und bezahlbare Stromversorgung auf absehbare Zeit nicht möglich. Das Geschäftsmodell der Ökoinvestoren basiert immer auf der Inanspruchnahme und Betriebsbereitschaft von Kohle-, Gas- und Kernkraftwerken. Für die Betreiber dieser systemrelevanten Kraftwerke wird es dagegen immer schwerer, die Kosten am Markt zu refinanzieren. Die großen deutschen Energieunternehmen und die kommunalen Stadtwerke machen deshalb gegenwärtig massiv Verluste. Ihr  Geschäftsmodell wird durch den Ausbau der erneuerbaren Energien zerstört. 

Je mehr subventionierter Ökostrom an der Strombörse zu billigsten Preisen auf den Markt gebracht wird, umso geringer ist der mögliche Erlös der Betreiber konventioneller Kraftwerke. Von Jahr zu Jahr sinken die durchschnittlichen Strompreise an der Börse. Besonders die klimafreundlichen Gaskraftwerke haben unter dieser Entwicklung zu leiden, weil sie die relativ höchsten Erzeugungspreise aufweisen. 

Die Bundesnetzagentur verbietet jedoch unter Verweis auf die Rechtslage das Abschalten konventioneller Kraftwerke, weil die Versorgungssicherheit sonst gefährdet sei. Während Ökoinvestoren üppige Subventionen kassieren, werden andere Unternehmen also kalt enteignet….. 

…..Die Frage der Energieerzeugungskosten und der Gesamtkosten des Systems ist ein ganz entscheidender Faktor in der Bewertung der Energiepolitik. Auch in diesem Punkt weist das EEG eine verheerende Bilanz auf. Der frühere Bundesumweltminister Jürgen Trittin hatte den Deutschen versprochen, dass die Förderung erneuerbarer Energien im Monat so viel koste wie eine Kugel Eis. 

In Wahrheit wurden bisher schon rund 150 Milliarden Euro an EEG-Umlage von den Verbrauchern kassiert, in den letzten Jahren jeweils über 20 Milliarden Euro. Da die Ökosubventionen auf 20 Jahre gewährt werden, kommen zu den bereits gezahlten Summen noch die zukünftigen Zahlungsverpflichtungen. Experten rechnen aktuell mit Gesamtkosten von 500 Milliarden Euro. Zum Vergleich:  Für die Zukunftsthemen Bildung und Forschung gibt der Bund gerade 13,7 Milliarden Euro aus. 

Den größten Teil der Ökosubventionen bringen die gewerblichen Verbraucher auf. Dadurch sinkt deren Wettbewerbsfähigkeit mit negativen Auswirkungen auf Wertschöpfung und Arbeitsplätze. Deutschland hat nach Dänemark, dem Windkraftland Nummer Eins, die höchsten Strompreise Europas. Industriebetriebe müssen laut Bundesverband der Energiewirtschaft mehr als 10 Cent je Kilowattstunde für Steuern, Abgaben und Umlagen aufbringen. In Frankreich und den Niederlanden sind es nur 3,7 Cent, in Polen und Großbritannien sogar nur 2,6 Cent.  International agierende Unternehmen werden deshalb genau rechnen, ob sie weiter in Deutschland investieren oder ihre Kapazitäten im Ausland, etwa im Billigstromland USA oder in Asien, (noch schneller) hochfahren.

Eine Umfrage der landeseigenen Hessen-Agentur (2013) bei allen hessischen Unternehmen mit mehr als 250 Beschäftigten kommt zu einem klaren Ergebnis: Mehr als zwei Drittel der Befragten rechnen mit negativen oder sehr negativen Auswirkungen und die Hälfte der Unternehmen erwartet eine sinkende Wettbewerbsfähigkeit.

Aus dem grünen Jobwunder, das vielfach besprochen wurde, ist dagegen nichts geworden. Die mit Milliardensubventionen aufgebaute Solarindustrie ist jäh auf den Boden der Tatsachen aufgeschlagen. Der Beschäftigungsbericht "Erneuerbare Energien" (2013) des Bundeswirtschaftsministeriums weist beispielsweise bei Solarunternehmen im Vergleich zum Vorjahr ein Minus von 56 Prozent beim Umsatz und ein Minus von 44 Prozent bei den Jobs aus. 

Statt sonniger Aussichten stehen Rekordverluste und Insolvenzen auf der Tagesordnung. Statt neuer Jobs gibt es Massenentlassungen. Und das alles, obwohl der Weltmarkt für Solarmodule weiter wächst. Die deutsche Solarwirtschaft ist ein Paradebeispiel dafür, dass sich mit Subventionen langfristig kein wirtschaftlicher Erfolg erkaufen lässt. Verwöhnt von Anfangserfolgen und der starken heimischen Nachfrage haben deutsche Hersteller den Anschluss an die Weltspitze, die heute ausnahmslos aus Asien kommt, verloren.

Wer die deutsche Energiepolitik und das EEG nüchtern betrachtet, muss zu der Erkenntnis kommen, dass diese Politik gescheitert und die zentralen Ziele verfehlt wurden. Das EEG sollte deshalb schnellstmöglich abgeschafft werden. Außer der Ökolobby braucht niemand dieses Gesetz. Wir müssen die Energiepolitik wieder vom Kopf auf die Füße stellen und die grüne Steinzeitökonomie beenden…… 

..Entscheidend darf nicht sein, ob die Art und Weise der Stromerzeugung der politischen Führung unseres Landes gefällt, sondern ob sie im Sinne des Klimaschutzes und der Verbraucher wirklich funktioniert, und zwar so, dass Deutschland auch im internationalen Wettbewerb und angesichts sinkender Weltmarktpreise für Energie und Rohstoffe bestehen kann. Deshalb müssen wir mehr Markt erlauben und den Wettbewerb zwischen den Anbietern und Technologien fördern, da nur so Innovationen entstehen können.

Rene Rock ist Parlamentarischer Geschäftsführer
und energiepolitischer Sprecher der FDP Fraktion
r.rock@ltg.hessen.de

Hier den gesamten Artikel lesen




Aus weiß macht schwarz — Mogeleien zum Erhalt der Strahlenangst!

Die radioaktiven Stoffe wurden vor etwa einem Jahrhundert entdeckt. Dabei gab es Unfälle mit Todesfolge durch eine hohe Strahlendosis. Also legte man Grenzwerte fest und machte strenge Gesetze. Man wusste, daß ein Photon der Kernstrahlung millionenfach mehr Energie transportiert als ein Photon des Sonnenlichtes, aber die Zusammenhänge mit der Wirkung auf lebende Zellen kannte man noch nicht. Später wurden die ursprünglichen Grenzwerte vermindert, die Gesetze immer strenger. Es wurde das Wort „Strahlenschutz“ erfunden, obwohl gar nicht klar war vor welcher Strahlendosis ein SCHUTZ erforderlich ist. Und es wurde das Wort „Strahlenbelastung“ erfunden, obwohl Strahlung nur bei hoher Dosis in kurzer Zeit eine BELASTUNG bedeutet. Der Satz des Paracelsus „Allein die Dosis macht das Gift“ wurde ignoriert.

So geht das seit einem guten halben Jahrhundert. Strahlenbiologen haben inzwischen erkannt, daß Strahlung von Radioaktivität im Niedrigdosisbereich sehr nützlich für Lebewesen sein kann. Diese Erkenntnisse werden nicht beachtet. Manchmal wird mit offensichtlicher Absicht verschwiegen und gemogelt, wie im Folgenden an einem Beispiel gezeigt werden soll. Die Politik fragt in Sachen Strahlen die hauptamtlichen Strahlenschutzauthoritäten, die von der Gültigkeit überstrenger Gesetze leben. Und so bleiben die vom fachunkundigen Gesetzgeber formulierten Gesetze bestehen, es ist ein Teufelskreis.

Das Kobalt-60-Ereignis von Taiwan: Chen et.al., [1]

In Taiwan gab es ein ungeheuer wichtiges Ereignis zur Wirkung von Strahlung radioaktiver Stoffe auf Menschen, es wurde in EIKE mehrfach darüber berichtet, (hier), (hier). Dort enthielt der Baustahl von Gebäuden Kobalt-60, einen Gammastrahler mit hoher Intensität. Es wurden dort in einem unfreiwilligen Testversuch ca. 10 000 Personen über 9 bis 20 Jahre einer Gamma-Langzeitbestrahlung ausgesetzt, wie es noch nie geschehen war. Die Folge war, daß die exponierten Personen nicht durch die Strahlung geschädigt wurden. Sie war im Gegenteil sehr nützlich für die Gesundheit der Menschen. In einem normalen Kollektiv ohne zusätzliche Strahlung durch Co-60 hätte es in Taiwan unter den Erwachsenen 186 Krebstodesfälle geben müssen. Nach der im Strahlenschutz weltweit geltenden Lehrmeinung, daß jede noch so kleine Strahlendosis Krebs erzeugen kann (LNT-Modell), hätte es durch Strahlung weitere 56 Krebstodesfälle geben müssen. Bisher wurden tatsächlich aber nur 5 Krebstodesfälle beobachtet. Dieses Ereignis ist einzigartig auf der Welt, ein einzigartiger Nachweis zur Nützlichkeit von Niedrigdosisstrahlung. Und es ist ein Versuch an Menschen, der weltweit verboten ist! An den Nukleararbeitern in der Anfangszeit wurde ähnliches gefunden, allerdings nicht so deutlich wie jetzt in Taiwan.

Wie ist diese Strahlenwirkung zu verstehen?

Die Entstehung von Krebs ist eine komplizierte Sache, das meiste davon ist unbekannt, auch wenn oft das einfache Modell von der Erzeugung eines Doppelstrangbruches der DNA durch Strahlung und der daraus folgenden Tumorentwicklung genannt wird. Dieses Modell ignoriert die körpereigenen Reparatursysteme, die durch Strahlung gefordert werden und so deren Reparaturfähigkeiten trainiert. Man kennt heute den Zellzyklus, einen Mechanismus zur ständigen Erneuerung der Zellen im Körper. Durch Fehler bei dieser Erneuerung kann Krebs initiiert werden, daher tritt Krebs besonders bei hoher Zellteilungsrate auf. Bei der Regulierung vom Zellzyklus spielen viele Stoffe eine Rolle, so auch das Protein p53. Es ist ein „tumor suppressor gene“, es kann Krebs verhindern. p53 wird in den Zellen durch Bestrahlung vermehrt, seine Wirkung kann das Kobalt-60-Ereignis von Taiwan zwanglos deuten. Wegen seiner überragenden Eigenschaften wurde p53 im Jahre 1993 zum „Molekül des Jahres“ gewählt. Eine sehr zu empfehlende Darstellung „Radiation and Health“ wurde von einer Gruppe norwegischer Biophysiker gegeben [2]. Bücher und Veröffentlichungen von deutschen Verfassern sollte man sehr kritisch lesen, denn es gibt dazu oft „politische“ Betrachtungen.

Es gibt Gegendarstellungen zum Kobalt-60-Ereignis von Taiwan: Hwang et.al., [3] [4]

Diese Berichte kommen zu dem Schluß, daß die Strahlung vom Co-60 schädlich sei, wie es schon die Lehrmeinung besagt (LNT-Modell). Es wird die Inzidenz von Krebs untersucht, aber dabei wird gemogelt.

Die erste Mogelei

Chen et.al. berichten über ein Kollektiv von ca. 10 000 Personen mit einer mittleren über die gesamte Zeit kumulierten Dosis von 400 mSv pro Person. Hwang et.al. berichten nur von 6246 Personen mit einer mittleren über die gesamte Zeit kumulierten Dosis von 48 mSv pro Person, dazu wird der Medianwert von 6,3 mSv angegeben.

Das passt nicht zusammen. Es folgt aus diesen Zahlen, daß Hwang die Personen mit der höchsten Strahlenexposition nicht in die Untersuchung einbezogen hat. Dieses sind aber gerade diejenigen, bei denen dank regelmäßigem Training des Immunsystems ein positiver Effekt zu erwarten ist. Es wurden hingegen im wesentlichen nur die Personen des Teilkollektives mit der niedrigsten Exposition von 1 bis 5 mSv pro Jahr beachtet. Der Medianwert von 6,3 mSv bedeutet, daß die Hälfte der Personen nahezu KEINE zusätzliche Strahlung erhalten hat. Dann können natürlich auch keine positiven Effekte durch Strahlung aufgetreten sein.

Die zweite Mogelei

Hwang et.al. geben Zahlenwerte für die standarisierte Inzidenzrate SIR an; SIR < 1 bedeutet weniger Krebsfälle als normal, SIR > 1 bedeutet mehr Fälle als normal. In den Überschriften und Zusammenfassungen beider Arbeiten wird von Krebs durch gamma-Strahlen gesprochen [3] [4], aber in der ersten Arbeit [3] findet man in Tabelle III auf Seite 854 genau das Gegenteil, nämlich SIR = 0,7 für „solid cancers“. Das bedeutet weniger Krebs bei Bestrahlung, wie es Chen et.al. berichtet haben (wird im Text erst ganz hinten erwähnt). In der zweiten Arbeit [4] wird ein Risikofaktor >1 für „all solid cancers“ (table 2 auf Seite 145) angegeben, es ist also die ursprünglich niedrigere Krebsrate zu einer höheren Krebsrate geworden. Woher kommt diese gigantische Änderung innerhalb von 2 bis 3 Jahren? – Das wird nicht erläutert. Mohan Doss hat vorgerechnet, daß diese Änderung vorgetäuscht wurde [5].

Die dritte Mogelei

Hwang et.al. haben in der Tabelle III auf Seite 854 [3] die Daten für die Krebse an vielen Organen aufgeführt. Als Mittel über alle Krebse liegt SIR < 1, dennoch wurde bei einigen Organen SIR > 1 gefunden. Unter diesen Fällen mit SIR > 1 sind einige mit einer zur geltenden Lehrmeinung passenden Dosisabhängigkeit. Nur diese Fälle werden als Ergebnis genannt, die anderen werden verschwiegen. Die Zahl der beobachteten Fälle war dabei klein, so lässt sich z.B. bei 4 Fällen keine Statistik begründen, auch wenn das relative Risiko mit 9,0 berechnet worden ist.

Und noch etwas

Es wird nicht diskutiert, aus welchen Grunde die Arbeit von Chen et.al. falsch sei. Es wird dazu gesagt „Chen et.al. (2004) reported a primitive analysis on a similar cohort population…“ [3]. Die Worte „primitive analysis“ lassen nicht den Willen zu einer sachlichen wissenschaftlichen Diskussion erkennen.

Es wurde gemogelt, das ist klar, das kann nur mit voller Absicht geschehen sein. Besonders deutlich sind die Mogeleien aus den Tabellen der ersten Arbeit [3] zu sehen. In der zweiten Arbeit [4] fehlen diese Tabellen, damit ist dort nur die erste Mogelei erkenntlich. Es ergibt sich der Eindruck, daß die follow-up-Arbeit geschrieben wurde, um die besonders offensichtlichen Mogeleien in der ersten Arbeit zu verstecken. Im Internet sind nur die Zusammenfassungen beider Arbeiten frei verfügbar, auch das nährt den Verdacht auf Absicht.

Was ist zu tun?

Es gilt das Ergebnis von Chen et.al. : Ganzkörper Gammabestrahlung ist nützlich, sie kann vor Krebs bewahren. Natürlich muß das Kollektiv der Bewohner in Taiwan weiter beobachtet werden, das sollte ein ganzes Menschenalter lang geschehen. Dabei ist die Inzidenz wie auch die Mortalität bei Krebs zu beachten. Da aber unter den Bewohnern viele junge Menschen sind, kann man nicht ein Menschenalter bis zu endgültigen Ergebnissen warten. Das Handeln sollte schon viel früher beginnen, und zwar sofort. Dieses einzigartige Experiment mit Co-60 in Taiwan sollte wiederholt werden. Dazu müssen die geltenden Verbote der Exposition von Menschen mit Strahlung gemäß der Strahlen“schutz“regeln weg, eine Aufgabe des Gesetzgebers.

Man sollte sich auch daran erinnern, was schon in den 1980-er Jahren von Luckey gefordert wurde:

„Es wird allmählich Zeit, daß sich die für die Volksgesundheit verantwortlichen Stellen darüber Gedanken zu machen beginnen, wie sichergestellt werden kann, daß jeder die Dosis, die er zur Erhaltung seiner Vitalität und Gesundheit benötigt, auch immer erhält.“

Luckey hatte in den 1980-ern 1200 Arbeiten zur biopositiven Wirkung von Strahlung ausgewertet, inzwischen ist deren Anzahl auf 3000 gestiegen. Und es gibt mit „dose-response“ eine Zeitschrift, die sich nur mit der gesundheitsfördernden Wirkung von Strahlung befasst. Zur Gesundheitsvorsorge hat Luckey 60mSv/Jahr als optimale Dosis vorgeschlagen. Es gehört auch das ALARA-Prinzip (as low as reasonable available) auf den Müllhaufen für wissenschaftliche Irrtümer. Alles Schrifttum mit der Überschrift „Nuclear Safety & Security“ muß korrigiert werden, dazu sind die internationalen Organisationen UNSCEAR, IAEA, ICRP und ebenfalls die nationalen Strahlenschutzauthoritäten gefordert. Seit den 1980-er Jahren ist jedoch nichts geschehen, zum Nachteil von Millionen Menschen [6].

In Deutschland sterben jährlich etwa 210 000 Menschen an Krebs, die Inzidenz liegt bei etwa 460 000 jährlich. Es wird also mehr als jeder zweite Bürger bei uns irgendwann mit dem Schrecken „Krebs“ konfrontiert. Das Ereignis in Taiwan lässt hoffen, daß allein in Deutschland jedes Jahr einigen 100 000 Menschen geholfen werden könnte, wenn es die Gesetze erlauben würden. Dringendes Handeln ist erforderlich!!!!

Literatur

[1] W.L. Chen et.al. , “Effects of Cobalt-60 Exposure on Health of Taiwan Residents Suggest New Approach Needed in Radiation Protection” http://tinyurl.com/pjychll oder http://tinyurl.com/yzzdu9p, oder “Is Chronic Radiation an Effective Prophylaxis Against Cancer?”  http://tinyurl.com/9jwnnc3

[2] Thormod Henriksen et.al., „Radiation and Health“, 2012, http://tinyurl.com/nlsm4wm

[3] S.-L. Hwang et.al. , “Cancer risks in a population with prolonged low dose-rate g-radiation exposure in radiocontaminated buildings, 1983 – 2002”, Int. J. Radiat. Biol., Vol. 82, Dec 2006, pp. 849 – 858

[4] S.-L. Hwang et.al. , “Estimates of relative risks for cancers in a population after prolonged low-dose-rate radiation exposure: A follow-up assessment from 1983 to 2005”, Radiation Research 170, 143 – 148 (2008)

[5] M. Doss, “An Analysis of Irradiated Taiwan Apartment Residents’ Cancer Incidence Data”, http://taiwan-apt-cancer-data-analysis.blogspot.de

[6] M. Doss, “Linear no-threshold Model vs. radiation hormesis” dose-response, 11, 2013, 495 – 512

Die Arbeiten von Hwang [3] und [4] können bei Interesse gern über die admin von EIKE angefordert werden.

Related Files




Sonnenfinsternis: Was haben Mister Spock und Agora Energiewende gemeinsam?

Wie macht man das? Ganz einfach, man kauft beizeiten, planbar bereitstellbare Elektroenergie aus den bekannt immer zuverlässig fossil betriebenen, aber medial verteufelten, Kraftwerken und erwartet den geplanten Einbruch der Solarenergie. Um ganz sicher zu gehen, werden große Stromverbraucher – wieder gegen teures Entgelt- aufgefordert (gezwungen) ihre Produktion für genau bestimmte Zeiten und Dauern stillzulegen. Die wichtigste Feststellung wurde jedoch öffentlich nicht diskutiert. Nämlich- dass wir ohne die unzuverlässige und extrem teure und damit völlig nutzlose Solarstromeinspeisung- die Sonnenfinsternis nur als gewohnt kosmisches Spektakel hätten zur Kenntnis nehmen dürfen. Die jetzt bewältigten geringen Probleme wären– dank präziser Planbarkeit- ohne sie gar nicht erst aufgetreten. Unser Autor Rolf Schuster hat sich die wahren Verhältnisse trotzdem näher angeschaut.

Von Rolf Schuster

Dieser Tage wurde wieder eine mediale Sau, ausgelöst durch eine Pressemeldung von Agora Energiewende.

Am 16.03.2015 veröffentlichte Agora Energiewende folgende Pressemeldung:

Studie: Das Stromsystem muss mit Situationen, wie sie am 20. März nur ausnahmsweise auftreten können, in 15 Jahren regelmäßig zurechtkommen

……………..

Die Sonnenfinsternis lässt sich bewältigen, weil sich die Stromnetzbetreiber frühzeitig vertraglich mit schnell zu- und abregelbarer Stromerzeugung ausgestattet haben. „Wenn das heutige, vergleichsweise inflexible Stromsystem die Sonnenfinsternis meistert, dann wird das Stromsystem des Jahres 2030 mit vergleichbaren Situationen spielend zurechtkommen“, sagt Graichen. „Denn im Rahmen der Energiewende muss das Stromsystem ohnehin deutlicher flexibler werden.“

……………….

http://www.agora-energiewende.de/presse/pressemitteilungen/detailansicht/article/sonnenfinsternis-liefert-vorgeschmack-auf-2030-1/

Auf diese Mitteilung sah sich unsere Medienlandschaft genötigt, folgende Botschaften unter das geneigte Volk zu streuen.

Tagesschau

Sonnenfinsternis und die Stromnetze Je schlechter das Wetter, desto besser

Bei der partiellen Sonnenfinsternis morgen werden in Deutschland bis zu 80 Prozent der Sonne durch den Mond abgedeckt sein. Genau das könnte das Stromnetz ins Wanken bringen. Eine entscheidende Rolle spielt das Wetter. Doch warum?

Die Welt:

Sonnenfinsternis beamt Stromnetze ins Jahr 2030

Wenn sich am Freitag die Sonne verdunkelt, bricht die Solarstrom-Versorgung ein. Es ist, als ob 15 Kraftwerke abgeschaltet werden. Ein absoluter Extremfall – und eine Generalprobe für die Zukunft.

FAZ

Blackout durch Sonnenfinsternis?

Die Sonnenfinsternis am 20. März wird für die Stromnetzbetreiber zur Herausforderung, denn es kann zu enormen Netzschwankungen kommen.

usw. usw

Hier werde ich versuchen, nachzubilden, was tatsächlich geschah.

Bild 1 zeigt den viertelstündigen Verlauf der Einspeisung von Wind und Solarenergie. Für den Zeitraum zwischen 9:30Uhr und 10:30 zeigt sich ein negativer Gradient  von -6.121 MW.  Ab 10:30 Uhr bis 12:00 Uhr ergab sich ein positiver Gradient von beachtlichen 13.759 MW

 

Bild 1: Verlauf der Einspeiseleistung Solar am 20.03.2015

Vergleicht man die Solareinspeisung im Kontext mit der Netzlast des Tages, zeigt die braune Fläche, dass diese Schwankung der Solarenergie, locker von den fossilen und Kernkraftwerken kompensiert wurde.

Die Windenergie stellt für diesen Zeitraum im Prinzip einen Totalausfall der ca. 25.000 Windkraftanlagen dar.

Bild 2 Verlauf der Last, sowie der Einspeisung von Wind.- und Solarenergie

Aus diesem Grunde werden die folgenden Tage im noch jungen Jahr 2015 ausgewählt. Diese Tage zeigen, dass hier von Agora wieder mal aus einem Furz, einen Donnerschlag produziert wurde.

Anmerkung: Da zur Zeit EEX die Netzbetreiber und Entso-E ihre veröffentlichten Daten neu strukturieren, werden die Daten der Last(Load), ab März als Viertelstundenwerte dargestellt.

Für mich stellt sich die Frage, welchem Streßtest wird unsere elektrische Energieversorgung im Alltag unterzogen?

 

Bild 3  ausgewählte Tage im Jahr 2015 

Errechnetet man die stündliche Veränderung der Einspeisung von Wind und Solarenergie (rote Säule) und die Veränderung  der Last (braune Säule), sowie die Addition  von Wind Solar + Last (blaue Fäche), ergibt sich

folgendes Bild:

Bild 4: Veränderung  von Einspeisung Wind + Solarenergie  und Last, sowie Addition der selben

Fazit:

Ich kann nicht erkennen, was für ein außergewöhnliches Ereignis für das deutsche Stromnetz stattgefunden hat.

Viel interessanter wäre es gewesen, wie das deutsche Netz ohne die verlässlichen, aber medial verteufelten

fossilen und Kernkraftwerke reagiert hätte, da der Wind einen Totalausfall war.

Herr Wetzel von der Welt konstatierte, dass das deutsche Stromnetz in das Jahr 2030 gebeamt wurde.

Vielleicht hätte man das Team von Agora Energiewende in das Jahr 2030 beamen müssen. 

Dies hätte mir sicherlich einen entspannten Fernsehabend an diesem Samstag ermöglicht.

In diesem Sinne:

Rolf Schuster

 

 

 

 

 

 

 

 




Neue Studie zur CO2 Konzentration: Anthropogener Anteil irgendwo zwischen 0 und max 30 % -Vortrag von Prof. Murry Salby am 13.3.15 in Essen

Zur Zeit stellt er sich in Australien einem „Tribunal“, das die Vorwürfe gegen ihn aufklären soll. Vorwürfe, die sich auf Forschungs-Budget-Vorgänge beziehen, die Jahrzehnte zurück liegen. 

Abb. 1: Verlauf der Änderung der gesamten globalen CO2 Konzentration pro Jahr (grün) und der allein von den Oberflächen-Eigenschaften (dominante Teile Temperatur + Feuchtigkeit)  induzierten Änderung der CO2 Konzentration (blau). Korrelationskoeffizient 0,93. Im Unterschied zur natürlichen CO2 Emissionen die von den „Oberflächeneigenschaften“ abhängen, tun das die anthropogen Emissionen nicht. Grafik M.Salby 

Was war das Vergehen des Murry  Salby? Nun, Salby wies  methodisch streng und ebenso theoretisch wie durch Beobachtungen gestützt und deshalb sehr gut begründet nach, dass (zu fast 80 % [1]) die Temperatur die CO2 Emissionen, wie auch die  Konzentration des CO2 in der Atmosphäre antreibt. Nicht umgekehrt. Die restlichen 20 % werden in der Hauptsache durch die Feuchtigkeit angetrieben. Beide zusammen wirken auf die Biosphäre und die anderen Quellen und Senken des CO2 Kreislaufs ein. Ein weiterer wesentlicher Aspekt dieser Ergebnisse ist, dass die Verweilzeit zusätzlich eingebrachten CO2 –also auch des anthropogen erzeugten- in der Atmosphäre bei ca. 4-7 Jahren liegt. Das IPCC geht zwar von mehreren 100 Jahren aus und begründet damit, wegen der Langzeitwirkung, u.a. die Forderung nach sofortigem Stop aller anthropogenen CO2 Emissionen,  belegt aber durch die eigenen Angaben, dass die Berechnungen von Salby (und anderen z. B. O. Humlum) stimmen und nicht die Behauptung des IPCC- (Abb 2) Dass das Global Carbon Budget Project zu völlig anderen Ergebnissen kommt, zeigt, dass die Forschung auch zu diesem wichtigen Aspekt zum Treiber der Temperatur noch lange nicht "settled" ist.

Abb. 2: Angaben des IPCC zum Kohlenstoffkreislauf in Gt C/Jahr. Setzt man die angegebenen Werte korrekt zueinander in Beziehung ergibt sich eine Verweilzeit von 4,1 Jahr, nicht von hunderten Jahren. (Abb. 3) Bild IPCC V Bericht

Abb. 3: Angaben des IPCC Bern Modell mit Verweilzeiten von hunderten von Jahren (rot), vs. Beobachtungen (grün) und math. Funktion des Verlaufs. (blau). Grafik Salby

Nach diesen doch sehr neuen und wichtigen Ergebnissen wandte sich Salby in seinem Vortrag der Frage zu, wie hoch denn der anthropogen induzierte Anteil am CO2 der Atmosphäre sei und wie er evtl. bestimmt werden könne. Dieser Teil des Vortrags war sehr umfangreich und sehr theoretisch, jedoch immer ausgehend von den tatsächlichen Beobachtungen. Die erste davon bezieht sich auf die Tatsache, dass die anthropogenen CO2 Emissionen seit dem Jahr 2002 um satte 350 % schneller angestiegen sind als in den Jahren zuvor. Spötter würden sagen, das dies wohl eine ungewollte Nebenwirkung des Kyoto Protokolls, und ein schlechtes Menetekel für die kommende Klimakonferenz in Paris ist. Doch, und das ist die Pointe, der Anstieg der atmosphärischen Gesamt-CO2 Konzentration blieb im selben Zeitraum, vorher wie nachher mit 2,1 ppm/year konstant. Allein das ist lt. Salby ein starker Hinweis darauf, dass die anthropogene Emission keinen wesentlichen oder gar dominierenden Anteil haben können.

Abb. 4: Vergleich Anstieg der fossil erzeugten CO2 Emissionen (oben) mit der CO2 Gesamtkonzentration unten.

Diese beiden Entwicklungen untersuchte er nun anhand der bekannten Isotopenmischungsverhältnisse, sowie anderer Parameter und kam zur Feststellung, das man anhand der vorhandenen Daten und Methoden nur ermitteln könne, wo derzeit die Obergrenze des anthropogen erzeugten CO2 an der Gesamtkonzentration liegen könnte. Und diese Obergrenze bestimmter er anhand komplizierter Berechnungen, durch die er aber das Publikum Schritt für Schritt führte, mit max. 30 %.

Seine Schlussfolgerung daraus: Wegen des Sättigungseffektes bei der Energieaufnahme der CO2 Moleküle bei steigender Konzentration und der kurzen Verweilzeit könne die weitere Steigerung der Temperatur  -folgte  man überhaupt der Treibhaushypothese- deshalb nur bei maximal wenigen Zehntel Grad liegen, wenn überhaupt. Jedoch wären die bekannten fossilen Vorräte bis dahin bereits erschöpft.

Es bleibt abzuwarten, ob diese neuen Erkenntnisse die Anerkennung der weiteren Fachwelt finden. Anlass zu heftiger und bestimmt auch sehr kontroverser Diskussion geben sie sicher.

Bleibt zu ergänzen und dies war sein letzter Hinweis, dass die anthropogenen CO2 Emissionen fast 1:1 mit der Entwicklung der Weltbevölkerung  korrelieren (Abb. 5).

Abb. 5: Entwicklung der Weltbevölkerung  und der CO2 Emissionen aus fossilen Brennstoffen. Grafik Salby

Unausgesprochen  blieb die Konsequenz daraus, dass ohne allgemeine Verfügbarkeit von billigen Alternativen zu den fossilen Energieträgern, wie Sie derzeit evtl. nur die durch die Kernenergie bereitgestellt werden kann, die allseits geforderte Absenkung der fossilen CO2 Emissionen zu einer drastischen Verringerung des Lebensstandards führen muss. Und diese würde insbesondere in den ärmeren Ländern zu einer massiven Erhöhung der Sterberate führen müssen. Der eine oder andere Zuhörer fühlte sich dabei vielleicht an die Worte des hochberühmten Naturschützers und Tauchers Jaques Yves Cousteau erinnert, der 1991 in einer offiziellen UNO Broschüre vorschlagen durfte : "Um den Planeten zu stabilisieren müssen wir 350.000 Menschen täglich eliminieren. Es ist schrecklich das zu sagen, aber genauso schrecklich es nicht zu sagen," Jacques Cousteau, im UNESCO Courier, Nov. 1991.


[1] Für die Puristen unter unseren Lesern: Salby  bestimmt den Korrelationskoeffizienten der Nettoemissionen = dem Anstieg der CO2 Konzentration für die Temperatur, mit knapp 0,8 und  den zusammen mit der Feuchtigkeit auf 0,93.