James Lovelock: Ein Vater des Klima-Alarmismus korrigiert sich: Doch die europäischen Medien nehmen davon keine Notiz

Ein eingängiges Beispiel dafür ist die Regulierung des Sauerstoffgehalts der Atmosphäre, der über Hunderte von Millionen Jahre konstant bei 21 Volumenprozent geblieben ist, obwohl er, rein chemisch gesehen, längst wieder hätte verschwinden müssen. Denn Sauerstoff ist sehr reaktionsfreudig. Er verbindet sich leicht mit den Metallen der Erdkruste wie Silizium, Aluminium oder Eisen zu Metalloxiden und mit dem Kohlenstoff der Pflanzen zu Kohlenstoffdioxid CO2), einem reaktionsträgen Gas, das in den Atmosphären unserer toten Nachbarplaneten Mars und Venus vorherrscht. Nur die Selbstorganisation (Autopoiesis) des Lebens kann erklären, warum der eigentlich lebensbedrohliche Sauerstoff nicht wieder aus der Atmosphäre verschwunden ist, nachdem er zunächst durch Blaualgen (Cyanobakterien) und später durch Grünalgen und höhere Landpflanzen als Abfallprodukt der Photosynthese in die Luft geriet. Als der Sauerstoffgehalt der Luft anstieg, gingen die meisten der bislang auf der Erde vorhandenen Lebewesen zugrunde. Nur Organismen, die über Enzyme für die Entgiftung des Sauerstoffs verfügten, konnten überleben. Sänke der Sauerstoffgehalt auf 15 Prozent, könnte selbst gut getrocknetes Holz nicht mehr angezündet werden. Stiege er dagegen auf 25 Prozent, würden sogar feuchte Tropenwälder spontan in Flammen aufgehen. Der reale Sauerstoffgehalt der Luft liegt etwa in der Mitte zwischen den beiden Extremen. Das hat auch mich als jungen Biologen fasziniert. Noch bis zur Jahrhundertwende Jahre habe ich Lovelocks Bücher verschlungen.
Lovelock versuchte mit seiner Hypothese auch die Klimaentwicklung zu erklären. Dabei ging er davon aus, dass die langen Eiszeiten als Gaias Normalzustand und die vergleichsweise kurzen Warmzeiten als krankhafte Entgleisungen der Geophysiologie angesehen werden sollten. Er war einer der ersten, die vor einer gefährlichen Aufwärmung der Atmosphäre durch die Einleitung von immer mehr CO2 warnten und galt in der grünen Szene zu Recht als „Gottvater der Erderwärmung“. In seinem Buch „Gaias Rache“ (München 2007) rechnete Lovelook mit Milliarden von Todesopfern durch die Erderwärmung.
Deshalb hätte es eigentlich in unseren Massenmedien Schlagzeilen geben sollen, als der noch immer fleißig Bücher schreibende Greis jetzt in einem Interview mit der amerikanischen msbc-Mediengruppe verkündete, er habe sich geirrt, als er zusammen mit Al Gore und anderen Promis auf der Grundlage von Computer-Extrapolationen vor einer heraufziehenden Klimakatastrophe warnte. Die vorausgesagte galoppierende Erderwärmung sei nun schon zwölf Jahre lang ausgeblieben, obwohl der CO2-Gehalt der Luft in dieser Zeit munter weiter gestiegen ist. Wörtlich sagte Lovelock: „Das Problem ist, dass wir nicht wissen, was mit dem Klima los ist. Vor zwanzig Jahren dachten wir, das zu wissen und veröffentlichten alarmistische Bücher – meine eigenen eingeschlossen -, weil alles klar schien. Aber nichts von dem, was wir vorausgesagt haben, ist eingetreten.“  Leider hat kein einziges Medium in Europa von dieser Selbstkritik eines der Väter der grünen Bewegung berichtet. So funktioniert die Selbstgleichschaltung.
Das wissenschaftliche Renommee Lovelocks wird unter seinem öffentlichen Rückzieher wohl kaum leiden. Denn er hat außer gewagten Theorien auch technische Erfindungen in die Welt gesetzt, die der Umweltforschung zu sprunghaften Fortschritten verhalfen. Ohne den von Lovelock entwickelten Elektroneneinfangdetektor (ECD) hätte das „Ozonloch“ über der Antarktis nicht entdeckt werden können. Mit diesem Messinstrument werden auch heute noch Luftschadstoffe verschiedener Art wie etwa chlorierte Pestizide und Dioxine nachgewiesen. Im Unterschied zu den heute Ton angebenden „Klimaforschern“, die mehr am Computer als in der Natur arbeiten, vollzog sich Lovelocks Wissenschaftler-Karriere größtenteils außerhalb des staatlich besoldeten akademischen Establishments. Seine wichtigsten Entdeckungen machte er als unabhängiger Forscher im Auftrag der US-Raumfahrtorganisation NASA. In seinem eigenen Labor in einer umgebauten Scheune in Cornwall versucht der kreative Tausendsassa noch immer, alle seine theoretischen Aussagen experimentell zu testen. Das unterscheidet ihn von den meisten „Klimaforschern“, die dafür bezahlt werden, dass sie die politisch korrekte Erklärung der Klimaentwicklung ständig wiederkäuen.
Lovelock hat sich auch schon früher hin und wieder in der grünen Szene unbeliebt gemacht, weil er klar aussprach, dass Windräder und Solarpanele im Kampf gegen die Erderwärmung nutzlos sind und weil er wiederholt auf die Vorteile der friedlichen Nutzung der Kernenergie hinwies. In seinem Buch „Das Gaia-Prinzip“ (München-Zürich, 1991) nimmt die Entdeckung des natürlichen Kernreaktors von Oklo in Gabun einen besonderen Platz ein. Der dort ganz von selbst in Gang gekommene Kernspaltungsprozess in der freien Natur lief über Millionen von Jahren, hat aber in der Natur keinerlei Schäden hinterlassen. Daraus schloss Lovelock, dass die von den Grünen geschürte Atomangst weitgehend unbegründet ist.
Edgar Gärtner EIKE zuerst erschienen auf eigentümlich frei
Internet:
Apocalypse postponed. The Godfather of Global Warming says he, and Al Gore have been ‚alarmist’ about its effects
James Lovelock: Das Gaia-Prinzip. Die Biographie unseres Planeten
James Lovelock: Gaias Rache. Warum die Erde sich wehrt
20. Mai 2012




Kommt nun die richtige Energiewende? Das CERN hält die „kalte Fusion“ nicht für Esoterik

Doch dann kam eine überraschende Wende. Im März 1989, also vor nun 23 Jahren, verkündeten die beiden amerikanischen Elektrochemiker Martin Fleischmann und Stanley Pons auf einer Veranstaltung des europäischen Kernforschungszentrums CERN in Genf, es sei ihnen gelungen, die Wasserstoffisotopen Deuterium und Tritium bei Zimmertemperatur im Reagenzglas zu verschmelzen. Dieses Gefäß bestand aus einer Art Elektrolysezelle mit einer Kathode aus Palladium. Die Nachricht, die „kalte Fusion“ könne uns vielleicht auf billige, sichere und unerschöpfliche Weise unserer Energiesorgen entledigen, machte schnell die Runde. Doch schon wenige Wochen darauf folgte die Ernüchterung, als die US-Physiker Steven Koonin, Nathan Lewis und Charles Barnes vom renommierten California Institute of Technology (Caltech) auf einer Versammlung der amerikanischen Gesellschaft für Physik erklärten, es sei ihnen nicht gelungen, die Versuchsergebnisse von Fleischmann und Pons (Entstehung von Helium, freien Neutronen und Gammastrahlen) zu reproduzieren.

Doch Martin Fleischmann und eine Reihe weiterer Forscher in Indien, Japan und Italien ließen sich davon nicht beirren. Schließlich hatte Andréj Sacharow, der Vater der russischen Wasserstoffbombe, die grundsätzliche Möglichkeit der „kalten Fusion“ (wiss. Korrekt: Low Energy Nuclear Reaction, LENR) schon 1948 theoretisch hergeleitet. Während sich das US-Energieministerium (DOE) längere Zeit gegen eine staatliche Förderung der LENR aussprach, hält die US-Weltraumbehörde NASA neuerdings LENR für eine viel versprechende „Zukunftstechnologie“, die auch die Luft- und Raumfahrt revolutionieren könnte Dennis Bushnell, der Chefwissenschaftler des NASA-Forschungszentrums in Langley, geht allerdings nicht davon aus, dass die „kalte Fusion“ genau so abläuft, wie Fleischmann und Pons annahmen. Statt um eine Fusion leichter Atomkerne handele es sich vermutlich eher um eine Transmutation durch Neutronen- und Elektronenanlagerung und anschließendem Zerfall des schwereren Isotops. Wie dem auch sei, der Prozess setzt auf jeden Fall reichlich Wärme frei, und zwar deutlich mehr, als durch chemische Reaktionen allein erklärt werden kann. Es müssen Umwandlungen auf atomarer Ebene stattgefunden haben. Das wurde durch etliche Experimente, die unabhängig voneinander in Indien, Japan, Italien und den USA durchgeführt wurden, demonstriert.

Kein Wunder, dass sich nun auch private Konzerne wie Mitsubishi und Toyota in Japan und vielleicht auch Siemens in Deutschland für die „kalte Fusion“ erwärmen. Das wurde offenbar auf einem am 22. März 2012 vom CERN eigens veranstalteten Kolloquium zum Thema LENR. Dort stellte der an der Universität von Perugia/Italien lehrende indische Physiker Yogendra Srivastava die von der NASA favorisierte Theorie der Low Energy Nuclear Transmutations (LENT) von Giuliano Preparata (Mailand) und Allan Widom (Boston) vor. (Preparata hat in den 70er Jahren selbst am CERN gearbeitet.) Srivastava wies in seinem Vortrag auch darauf hin, dass die explosive Freisetzung von Neutronen in der Natur durchaus nichts Seltenes ist. Sie wird beobachtet bei Sonneneruptionen, bei Gewittern und bei Erdbeben. Vermutlich gehen die bei starken Erdbeben beobachtbaren Blitze von piezoelektrisch ausgelösten Transmutationen beim Zerbrechen von Quarzkristallen in der Erdkruste aus, meint Srivastava

Der italienische Kernphysiker Francesco Celani (Frascati) stellte beim Genfer Kolloquium bislang unveröffentlichte LENR- bzw. LENT-Experimente der NASA und japanischer Firmen vor. Dabei ragen die Ergebnisse der Versuche mit nanoskaligen Paladium-Silber oder -Zirkon-Elektroden heraus. Celani erwähnte auch den geheimnisvollen„Energy-Katalysator“, mit dem der italienische Unternehmer Adrea Rossi im vergangenen Jahr Furore gemacht hat. Dieser arbeitet nicht mit Palladium-Elektroden, sondern mit nanoskaligem Nickel in Wasserstoff. Durch den Einfang von Protonen durch die Nickel-Atome soll dabei Kupfer entstehen. Rossi, der mit dem emeritierten Physikprofessor Sergio Focardi aus Bologna zusammenarbeitet, lässt sich aber nicht in die Karten schauen. Der innere Aufbau seines Apparats bleibt streng geheim. Deshalb hat er dafür auch kein Patent bekommen. Immerhin hat Rossi sich vom renommierten Königlichen Institut für Technologie (KTH) in Stockholm bestätigen lassen, dass sein Apparat sechs Stunden lang 25 Kilowattstunden elektrische Leistung erzeugt hat. Inzwischen hat Rossi angekündigt, dass er ab 2013 für zirka 1.000 Euro ein kompaktes Gerät anbieten will, mit dem sich ein ganzes Eigenheim heizen lässt. Es soll nur zweimal im Jahr „Brennstoff“ für etwa 20 Euro benötigen. Ein Gerät will Rossi bereits an den Mann gebracht haben. Auch wenn gegenüber diesen Erfolgsmeldungen Skepsis geboten ist, zeichnet es sich schon jetzt ab, dass die „Energiewende“ wohl ganz anders aussehen wird, als von Angela Merkel und den ihr dienstbaren „Experten“ geplant. Sollte die kalte Transmutation tatsächlich funktionieren, wäre damit ihr Markterfolg aber noch nicht sicher gestellt, denn die Grünen werden wohl bald ein Haar in der Suppe finden.

Edgar Gärtner EIKE 

Internet:

Leser die sich über den Fortgang der Erfindung Rossis informieren wollen, hier dessen Internet-Plattform hinweisen: http://www.e-catworld.com/

ferner:

Wikipedia: Kalte Fusion

Yogendra Srivastava: Overview of LENT Theory

Francesco Celani: Overview of Theoretical and Experimental Progress in Low Energy Nuclear Reactions (LENR)

 

 




Energiewende: Der Weg in die Planwirtschaft

Die „Zukunftsenergien“ Wind- und Solarstrom bleiben trotz ihres gesetzlichen Vorrangs im wesentlichen Dekor, weil sie bislang vorhandene Stromerzeugungs-Kapazitäten nicht ersetzt, sondern größtenteils lediglich symbolträchtig gedoppelt haben. Das soll freilich nach den Vorstellungen der Wende-Energetiker bald anders werden. Nach dem „Energiekonzept“ der Bundesregierung soll der Anteil der so genannten regenerativen Energien (neben Wind und Sonne gehören dazu auch Biogas und Wasserkraft) an der Stromerzeugung im Jahre 2020 bereits 35 Prozent und im Jahre 2050 gar 80 Prozent betragen. Einzelne Bundesländer wie vor allem Schleswig-Holstein und Rheinland-Pfalz wollen schon in drei bis zwanzig Jahren die Vollversorgung mit Ökostrom erreichen. Da die Sonne auch in 20 Jahren nachts nicht scheinen und die Häufigkeit starker Winde weiterhin von der nordatlantischen Oszillation bestimmt werden wird, müssen sich die industriellen und privaten Energieverbraucher auf ein stark schwankendes Angebot einstellen.

Auf dem 3. VhU-Energieforum der Vereinigung der hessischen Unternehmerverbände unter dem Motto „Sichere Stromversorgung auch bei Wolken und Windstille“ Mitte März in Frankfurt erklärte der Energiewirtschaftler Dr. Jürgen Neubaarth von der Innsbrucker e3 consult, die Stromerzeugung im deutschen Kraftwerkspark müsse künftig innerhalb von 15 Minuten um 12.000 Megawatt hoch oder runter gefahren werden können. „Heute sind es erst 3.000 Megawatt“, stellte Neubarth nüchtern fest. Die inzwischen aufgebaute Windkraftleistung von zirka 27.000 Megawatt ersetze gerade einmal 1.900 MW konventionelle Kraftwerkskapazität. Der Energiewirtschafter erweckte allerdings den Eindruck, als sei die durch den überstürzten Atomausstieg und den unkoordinierten Aufbau witterungsabhängiger Stromerzeugungskapazitäten heraufbeschworene Gefahr eines großflächigen Blackouts allein durch den massiven Ausbau der deutschen und europäischen Stromnetze abwendbar. Gegenüber dem von der Bundesregierung für den Ausgleich von Stromangebot und –nachfrage favorisierten Ausbau der Energiespeicher-Kapazitäten in Form von Lithium-Ionen-Batterien und Pumpspeicher-Kraftwerken beziehungsweise der Umwandlung von Windstrom in Druckluft oder Wasserstoff/Methan gab sich Neubarth hingegen skeptisch, da hierbei große Umwandlungsverluste in Kauf genommen werden müssen. Außerdem gebe es für den Aufbau großer Speicherkapazitäten keine wirksamen Investitionssignale. Denn die Peakpreise für Strom sind in Deutschland wegen des raschen Ausbaus regenerativer Energien unter Druck geraten und der Bedarf an Regelenergie hat in den vergangenen zehn Jahren kontinuierlich abgenommen.

Dr. Christoph Bauer, Energiemanager des Chemiekonzerns Evonik in Hanau, erklärte, der Wechsel von der „verbrauchsgesteuerten Stromerzeugung zum erzeugungsgesteuerten Verbrauch“ sei die „zentrale Herausforderung der Energiewende.“ Er verkniff sich die Bemerkung, dass „erzeugungsgesteuerter Verbrauch“ nur ein anderes Wort für Planwirtschaft ist. Während die Bundesregierung den Strombedarf und damit das Leben der Privatleute über Smart Grids und Smart Meters fernsteuern möchte, sehen Industrievertreter im intelligenten Lastenmanagement stromintensiver Industriezweige ein viel größeres Anpassungspotential. Dieses lässt sich auch ohne harte bürokratische Eingriffe in die Unternehmensentscheidungen nutzen. Statt Stromüberschüsse unter hohen Verlusten in Form von Wasser bergauf oder in Form von Druckluft in die Erde zu pumpen oder für die Produktion von Wasserstoff beziehungsweise Methan zu nutzen, sei es erheblich sinnvoller, die für die Erzeugung industrieller Prozesswärme zu nutzen, um dort Brennstoffe wie Erdgas oder Heizöl zu ersetzen. Diese Option werde derzeit aber in der öffentlichen Diskussion vernachlässigt und durch die Gestaltung der Netzentgelte für stromintensive Industrien praktisch vereitelt.

Infolge der dezentralen Einspeisung von Wind- und Solarstrom in die Verteilernetze komme es immer öfter zu Trafobränden, berichtete Markus Hettig, Manager des mittelständischen Elektroanlagenbauers EFEN (Eltville am Rhein). Es gibt also nicht nur Engpässe im 380 kV-Transportnetz, über die in der Presse relativ häufig berichtet wird. In den vergangenen Wochen haben vor allem die Schwierigkeiten, Offshore-Windparks in der Nordsee an das Netz anzuschließen, für Schlagzeilen gesorgt. Da sich der zuständige staatseigene niederländische Netzbetreiber TenneT wegen Kapitalmangel außerstande sieht, die nötigen 15 Milliarden Euro für Unterwasser-Kabel und Hochspannungsleitungen aufzubringen, sollen nun die Kosten „sozialisiert“ werden, indem sie entweder unter allen vier großen Netzbetreibern aufgeteilt oder von der Staatsbank KfW übernommen werden. Ähnliches soll für die hohen Versicherungsprämien für die Offshore-Anlagen gelten. „Wir werden nicht umhin kommen, einen Teil der Haftungskosten zu sozialisieren“, erklärte der neue Präsident der Bundesnetzagentur, Jochen Homann, gegenüber der FAZ vom 26. März 2012. Schon wird die Verstaatlichung des gesamten deutschen Stromnetzes gefordert.

Als wäre es ein abgekartetes Spiel zur Einführung der Planwirtschaft durch die Hintertür, zieht so jeder mit der „Energiewende“ verbundene staatliche Eingriff in den Strommarkt weitere Eingriffe nach sich. Der Kollege Reinhold Böhmer hat das in der „Wirtschaftswoche“ prägnant zusammengefasst: „…der Staat entzieht wie beim Atomausstieg den Unternehmen auf dem Markt eingeführtes Geschäft und verlangt von ihnen nun wie bei der Energiewende vom Markt nicht unmittelbar nachgefragte Leistungen etwa in Form von Ökostrom. Wer so etwas macht, der muss sich nun mal den Gesetzen des Marktes fügen: Private Unternehmen leisten eben nicht, was ihnen aufoktroyiert wird und was unprofitabel oder zu risikoreich ist. Andernfalls würden sie auf Dauer ihre Existenz aufs Spiel setzen. Das fällt nicht einmal unter das Phänomen Marktversagen, da ja die Politik hier vom Markt etwas will, was der Markt per Definition nicht hergibt.“ Dem bleibt nichts hinzuzufügen.

Edgar L. Gärtner EIKE

Update*: Realitäsverweigerung in Reinform:

Bericht der Bundesregierung über die Umsetzung des 10-PunkteSofortprogramms zum Energiekonzept  

* mit Dank an Spürnase Uwe Klasen




Geoengineering: Zauberlehrlinge in den Startlöchern: Klima-Klempner setzen auf Plan B zur Weltrettung

Schon vor Jahren regte Chemienobelpreisträger Paul J. Crutzen an, mithilfe von Satelliten, Heißluftballons oder Großflugzeugen Millionen Tonnen Schwefel- und Aluminium-Aerosole oder auch Nanopartikel in der Stratosphäre zu versprühen, um die Luft zu trüben oder die Wolkenbildung zu verstärken und dadurch einen größeren Teil des Sonnenlichts ins All zu reflektieren. Damit sollte die zur größten Gefahr erklärte Erderwärmung durch den „CO2-Treibhauseffekt“ aufgehalten werden. (Wer nach „Geoengineering“ googelt, stößt übrigens unvermittelt auch auf das Stichwort „Chemtrails“ und damit auf die Vermutung, einige der vorgeschlagenen Techniken zur Trübung der Erdatmosphäre würden längst erprobt.)
 Andere Wissenschaftler, angeführt vom US-Klimaforscher Alan Robock, warnen jedoch vor unerwünschten Nebenwirkungen. Denn Schwefel-Aerosole können die Ozonschicht schädigen, die uns vor ultravioletten Strahlen schützt, und auf der Erde sauren Regen niedergehen lassen. Obendrein sind sie eindeutig gesundheitsschädlich. Deshalb wurden in Europa Kohlekraftwerke mit aufwändigen Filtern ausgerüstet, um das giftige Schwefeldioxid in Gips zu binden. Es wäre ein Treppenwitz der Geschichte, würde man die bisherigen Erfolge im Umweltschutz wieder aufs Spiel setzen, um einer rein hypothetischen Gefahr zu begegnen. Denn kaum etwas spricht derzeit dafür, dass sich die im 20. Jahrhundert registrierte leichte globale Erwärmung im 21. Jahrhundert fortsetzt.
 Eine vor kurzem im Wissenschaftsmagazin „Science“ veröffentlichte Studie eines Teams von 24 NASA-Experten empfiehlt dagegen andere Maßnahmen, die gleichzeitig die Atemluft gesünder machen würden. Und zwar die Eindämmung des Ausstoßes des „Treibhausgases“ Methan mithilfe der Abdichtung von Lecks im Bergbau, bei der Förderung und beim Transport von Erdgas und beim Betrieb von Mülldeponien sowie das Trockenlegen von Reisplantagen und eine Verminderung der Pupser von Wiederkäuern. Das zweite vorgeschlagene Maßnahmenbündel betrifft die Verminderung des Rußausstoßes durch den Einbau von Rußfiltern in Dieselfahrzeuge, die Verminderung des Abbrennens abgeernteter Felder und der Brandrodung sowie die Verbreitung moderner Kochöfen in armen Ländern. Man fragt sich allerdings, wie die Verminderung des Ruß-Eintrags in die Atmosphäre die globale Erwärmung aufhalten soll, denn bislang wurde Ruß eher für die zeitweise Abkühlung in den 60er und 70er Jahren des 20. Jahrhunderts verantwortlich gemacht.
 Eine andere theoretische Möglichkeit, der Atmosphäre das für schädlich gehaltene CO2 zu entziehen, wurde bereits in einem deutsch-indischen Großexperiment namens „Lohafex“ getestet: Das AWI Alfred-Wegener-Institut (Bremerhaven) wollte mit dem Forschungsschiff „Polarstern“ durch die Düngung des südlichen Polarmeeres mit  sechs Tonnen Eisenspänen eine Massenvermehrung einzelliger Algen („Algenblüte“) auslösen. Die Algen sollten den oberen Wasserschichten CO2 entziehen und den aufgenommenen Kohlenstoff nach ihrem Absterben in Form von Kalk am Meeresgrund ablagern. Doch das Experiment ging schief. Die beteiligten Wissenschaftler hatten nicht bedacht, dass die Algen lange vor ihrem natürlichen Absterben zur Beute gefräßiger kleiner Ruderfußkrebse werden, die das CO2 wieder ausatmen.
 Der Ausgang dieses Experiments zeigt, dass die Natur den Menschen nur selten den Gefallen tut, sich modellkonform zu verhalten. Alle Ansätze von Geoengineering beruhen aber auf einer Gleichsetzung von Modell und Realität. Sind schon die Zusammenhänge im Ozean kaum überschaubar, so gilt das erst recht für den Strahlungshaushalt der Atmosphäre. Niemand kann einigermaßen realistisch abschätzen, was überaus teure großtechnische Eingriffe in die Zusammensetzung der Atmosphäre letzten Endes bewirken werden: Sie können möglicherweise infolge von Gegenreaktionen völlig verpuffen, unter ungünstigen Umständen vielleicht aber auch unkontrollierbare Kettenreaktionen auslösen. Dennoch fordert Dr. Sabrina Schulz, die bei der Stiftung Neue Verantwortung für Geoengineering zuständig ist, in einem in der „Financial Times Deutschland“ veröffentlichten Kommentar, angesichts des absehbaren Scheiterns der Durban-Konferenz dürfe keine Option ausgeschlossen werden:„Geoengineering kann Bestandteil einer verantwortlichen Vorsorgepolitik sein“, schreibt sie. „Deutschland ist auch als innovativer Technologiestandort gefordert, sich hier zu positionieren. Gezielte Forschung könnte so bzu Geoengineering der Marke ‚risikogeprüft – made in Germany’ führen.“ Gott bewahre uns vor diesen Klima-Klempnern!
Edgar Gärtner EIKE
erschienen zuerst bei ef hier
Internet:
zwei Beiträge von Klaus Puls EIKE im Magazin Laufpass hier und hier 
Stiftung Neue Verantwortung
Paul Crutzen: Albedo Enhancement by Stratospheric Sulphur Injection
Alan Robock on Geoengineering
Simultaneously Mitigating Near-Term Climate Change and Improving Human Health
Forscher finden einfachste Wege zur Klimaabkühlung
Ein 14-Punkte-Plan für den Weg aus der Klimafalle
AWI: „Lohafex“ provides insides in plancton ecology
Sabrina Schulz: Schwefelt den Himmel, düngt die Meere!




Energiewende? Ein neues Kohle-Zeitalter zieht auf!

Wie die Zeiten sich ändern. Vor nur drei Jahren, genau Ende August 2008, erklärte Angela Merkel bei der Grundsteinlegung für ein neues Kohlekraftwerk des Stromriesen RWE in Hamm/Westfalen: „Die Energieversorgung ist eine zentrale Frage des Industriestandortes Deutschland. Wir brauchen eine Initiative der Vernunft. Die Ablehnung neuer Kohlekraftwerke ist umwelt- und klimapolitisch kontraproduktiv. Wir dürfen nicht abhängig werden von ausländischen Stromlieferungen.“ Inzwischen hat die Bundeskanzlerin durch den überstürzten Ausstieg aus der Kernkraft selbst dafür gesorgt, dass genau das eingetreten ist. Nach der Abschaltung der Hälfte der deutschen Kernkraftwerke ist die deutsche Stromversorgung „auf Kante genäht“, wie man so schön sagt. Eine Kältewelle oder der plötzliche Ausfall von zwei, drei Großkraftwerken würden genügen, um bei uns für Tage die Lichter ausgehen zu lassen. Die deutsche Netzagentur gibt das unumwunden zu und hat nun für die Winterzeit ältere Kohlekraftswerksblöcke als „Kaltreserve“ eingeplant. Damit bestätigt die Netzagentur, was unabhängige Fachleute schon bei der Verkündigung der „Energiewende“ durch Angela Merkel voraussagten: Statt zum Aufbruch in das von den Grünen verheißene „Zeitalter erneuerbarer Energien“ wird der Atomausstieg zu einer Renaissance von Kohle und (in geringerem Umfang) Gas führen. Beim grünen Fußvolk führt das zu wachsender kognitiver Dissonanz, zumal inzwischen ausgerechnet die linksliberale „New York Times“ auf die stark negative Öko-Bilanz „grüner“ Energieträger wie Biosprit hingewiesen hat.

Es spricht ohnehin einiges dafür, dass das Zeitalter der Kohle als Rohstoff der Elektrizitätserzeugung nun erst richtig beginnt. Nach dem jüngsten Statistical Review of World Energy des Ölkonzerns BP, einer der verlässlichsten Quellen für weltweite Energiemarktdaten, ist der Kohleverbrauch in den letzten zehn Jahren fast um 50 Prozent gestiegen. Eine solch rasche Steigerung hat es zuvor noch nie gegeben. Zu 90 Prozent sind China und Indien für diesen Zuwachs verantwortlich. Der Anteil der Kohle an der weltweiten Primärenergieerzeugung erreicht fast 30 Prozent und ist damit wieder so hoch wie zuletzt im Jahre 1970. Mit 48,2 Prozent entfällt fast die Hälfte des Welt-Kohleverbrauchs auf China. Die Pläne der chinesischen Führung sehen bis 2035 einen Ausbau der Kohlekraftwerkskapazität auf 600 Gigawatt vor. Auch in den westlichen Ländern ist der Kohleeinsatz im Jahre 2010 mit 5,2 Prozent so stark gewachsen wie zuletzt im Jahre 1979.

Diese Entwicklung kam durchaus nicht überraschend, sondern entspricht marktwirtschaftlicher Logik. Denn die bekannten Kohlevorräte sind auf der Welt relativ gleichmäßig verteilt und reichen noch für etliche Jahrhunderte. Die Schätzungen reichen bis zu tausend Jahren und mehr. Zudem ist die Kohle, im Unterschied zu flüssigen oder gasförmigen Energieträgern, problemlos transport- und lagerfähig. Mit ihrer Hilfe ist also das heikle Problem der Energiespeicherung leicht lösbar. Die Kohlepreise sind zwar in diesem Jahr wegen der Überflutung australischer Kohleminen im letzten Winter vorübergehend auf 90 bis 120 Euro je Tonne angestiegen. Doch noch immer gehört die Kohle zu den preiswertesten Energieträgern. Sie ist daher für aufstrebende  Schwellenländer wie China und Indien die Energiequelle der Wahl. Leider bleiben die Kraftwerke dort, was das Ausfiltern von Schadstoffen angeht, noch immer weit hinter dem westlichen Stand der Technik zurück.

In der EU (außer in Polen) wird die Kohle jedoch von den Grünen aller Parteien grundsätzlich verteufelt, weil bei ihrer Verbrennung Kohlenstoffdioxid (CO2) entsteht. Dieses unsichtbare, geruchlose und ungiftige Gas wird für die globale Erwärmung verantwortlich gemacht. Neue Kohlekraftwerke sollen deshalb nach dem Willen der EU-Kommission nur noch genehmigt werden, wenn sie das CO2 aus den Rauchgasen abscheiden und in tiefe Gesteinschichten verpressen. Das würde im Verein mit dem vorgeschriebenen Erwerb von CO2-Lizenzen über das europäische Emissionshandelssystem ETS allerdings die Kostenvorteile der Kohle weitgehend zunichte machen.

Darin besteht wohl auch der Hauptzweck der europäischen „Klimapolitik“. Diese stützt sich auf die 1896 vom schwedischen Chemiker Svante Arrhenius formulierte Hypothese vom „Treibhaus Erde“, die schon vor über hundert Jahren vom amerikanischen Physiker Robert William Wood als Fiktion entlarvt wurde. Wood konnte mithilfe eines einfachen Experiments zeigen, dass nicht einmal ein richtiges Gewächshaus so funktioniert, wie das „Treibhaus Erde“ angeblich funktionieren soll. Heute kann sich jeder selbst davon überzeugen, dass es zwischen der Kohleverbrennung und der Entwicklung der Durchschnittstemperatur auf der Erde keinen Zusammenhang gibt: Der starke Zuwachs des Kohleverbrauchs in den letzten zehn Jahren hat nicht zu einer nachweisbaren Erwärmung der Erde geführt. Im Gegenteil ist die Durchschnittstemperatur leicht gesunken.

Was die meisten nicht wissen: Arrhenius’ widerlegte Hypothese wurde schon zu Beginn der 1980er Jahre von führenden Köpfen der sozialistischen Internationale um Olof Palme und Gro Harlem Brundtland aus der Versenkung geholt, um die damals unrentabel gewordene Förderung von Erdgas in Russland und in der Nordsee durch die Einführung einer CO2-Steuer gegenüber der billigen Kohle wieder wettbewerbsfähig zu machen. Zwar konnten die Sozialisten bis heute keine direkte CO2-Steuer durchsetzen. Aber der CO2-Emissionshandel wirkt wie eine indirekte Steuer. Doch konnten die Sozialisten damit die Renaissance der Kohle nicht verhindern. Nun wäre es an der Zeit, sich vom Treibhaus-Schwindel zu verabschieden.  

Edgar Gärtner EIKE

Brandaktuell Roland Tichy in der Wirtschaftswoche "Blackout in Berlin"

Weil der Energie-Murks nicht länger zu vertuschen ist, hat die Bundesregierung vergangene Woche noch eine Expertenkommission eingerichtet. Glück auf!

Weiteres im Internet:

Merkel wirbt für den Neubau von Kohlekraftwerken

Statistical Review of World Energy

‚Serious’ Error Found in Carbon Savings for Biofuels