Fossile Treibstoffe werden die Welt retten (wirklich!)

Bild rechts: Illustration von Harry Campbell

Heutzutage ist keines der drei Argumente noch stichhaltig. Tatsächlich zeigt eine realistischere Abschätzung unserer Energie- und Umweltsituation, dass wir noch viele Jahrzehnte lang unverändert abhängig sein werden von den fossilen Treibstoffen, die so dramatisch zu Wohlstand und Fortschritt in der Welt beigetragen haben.

Im Jahre 2013 kamen etwa 87% der weltweit verbrauchten Energie aus fossilen Treibstoffen, eine Zahl, die sich gegenüber dem Wert von 10 Jahren zuvor bemerkenswerterweise nicht verändert hat. Dies lässt sich grob in drei Kategorien von Treibstoff und in drei Kategorien des Verbrauchs einteilen: Öl hauptsächlich für Transporte, Gas hauptsächlich zum Heizen und Kohle hauptsächlich zur Stromerzeugung.

Während dieses Zeitraumes ist das Volumen des Verbrauchs fossiler Treibstoffe insgesamt dramatisch gestiegen, jedoch mit einem ermutigenden Umwelttrend: Einer Verringerung der CO2-Emissionen pro Einheit erzeugter Energie. Den größten Beitrag zur Dekarbonisierung des Energiesystems bei der Stromerzeugung hat der Wechsel von kohlenstoffreicher Kohle zu kohlenstoffärmerem Gas geleistet.

Im globalen Maßstab haben erneuerbare Energiequellen wie Wind und Solar kaum etwas zum Rückgang der Kohlenstoffemissionen beigetragen, und ihr Wachstum hat lediglich dazu geführt, die kohlenstofffreie Kernenergie zurückzudrängen. (Der Leser sollte wissen, dass ich ein indirektes Interesse Kohle habe, besitze ich doch Ländereien in Nordengland, auf denen Bergbau betrieben wird, aber nichtsdestotrotz applaudiere ich der Ersetzung von Kohle durch Gas während der letzten Jahre).

Das Argument zu Ende gehender fossiler Treibstoffe ist zumindest für die nächste Zeit zusammengebrochen. Der Kollaps des Ölpreises während der letzten sechs Monate (hier ) ist eine Folge von Überfluss : eine unvermeidliche Konsequenz der hohen Ölpreise der letzten Jahre, welche Innovationen in hydraulischem Brechen, horizontalem Bohren, Seismologie und Informations-Technologie vorangebracht hat. Die USA – das Land mit den ältesten und am besten erschlossenen Kohlenwasserstoff-Feldern – hat sich selbst wieder einmal überraschend an der Spitze der Energie erzeugenden Liga wiedergefunden, hat es doch seine Rivalen Saudi Arabien bzgl. Öl und Russland bzgl. Gas hinter sich gelassen.

Der Schiefer-Geist ist jetzt aus der Flasche heraus. Selbst wenn der gegenwärtige niedrige Preis einige kostenintensive Ölerzeuger aus dem Rennen schubst – in der Nordsee, in Kanada, Russland, Iran und Offshore ebenso wie in Amerika – können die Schiefer-Bohrer sofort wieder loslegen, sobald sich die Preise erholen. Mark Hill von der Allegro Development Corporation hat kürzlich gesagt , dass die Fracker gegenwärtig ihre eigene Version von Moores Gesetz erleben: ein rapider Rückgang der Kosten und der zum Bohren erforderlichen Zeit zusammen mit dem rapiden Anstieg des Volumens der Kohlenwasserstoffe, die zu extrahieren sie in der Lage sind.

Und die Schiefer-Revolution muss sich noch global ausbreiten. Sowie das der Fall ist, werden Öl und Gas in soliden Felsformationen der Welt überreichlich Kohlenwasserstoffe für Jahrzehnte verschaffen, wenn nicht für Jahrhunderte. Und dahinter verborgen lauert für spätere technologische Durchbrüche das Methanhydrat, eine Gasquelle am Meeresboden mit einer Quantität, die über die gesamten Kohle-, Öl- und Gasvorräte der ganzen Welt zusammen hinausgeht.

Jene, die die unmittelbar bevorstehende Erschöpfung fossiler Treibstoffe predigen, wiederholen also lediglich die Fehler der US-Präsidialkommission, die im Jahre 1922 der Ansicht war, dass „schon jetzt die geförderte Gasmenge abnimmt. Die Ölerzeugung kann nicht mehr lange mit der derzeitigen Rate erfolgen“. Oder die Fehler von Präsident Jimmy Carter, der im Jahre 1977 in einer Fernsehansprache sagte, dass „wir alle nachgewiesenen Ölreserven in der ganzen Welt bis zum Ende des nächsten Jahrzehnts aufgebraucht haben werden“.

Dass fossile Treibstoffe begrenzt sind, ist ein Ablenkungsmanöver. Der Atlantische Ozean ist begrenzt, aber das heißt nicht, dass man Gefahr läuft, auf Frankreich zu stoßen, wenn man aus einem Hafen in Maine ausläuft. Die [Anzahl der] Büffel im Westen der USA war unbegrenzt in dem Sinne, dass sie Nachwuchs zeugen konnten, und doch gerieten sie an den Rand der Ausrottung. Es ist eine ironische Wahrheit, dass nicht erneuerbare Ressourcen niemals an ihre Grenzen stießen, während dies bei erneuerbaren Ressourcen – Wale, Kabeljau, Wälder, Brieftauben – schon häufig der Fall war.

Das zweite Argument für das Aufgeben fossiler Treibstoffe lautet, dass neue Rivalen sie in Kürze preislich aus dem Markt drängen werden. Aber das wird nicht geschehen. Die große Hoffnung lag lange Zeit auf Kernenergie, aber selbst bei einem Boom des Baus neuer Kernkraftwerke während der nächsten paar Jahre werden die neuen höchstens die alten Kraftwerke ersetzen, die heruntergefahren werden. Im Jahre 2003 bestand die weltweit verbrauchte Energie zu 6% aus Kernkraft, heute sind es noch 4%. Es gibt Vorhersagen der Energy Information Administration, dass der Anteil bis zum Jahr 2035 wieder auf 6,7% steigt.

Das Problem der Kernkraft sind die Kosten. Um den Sicherheitsanforderungen von Umweltaktivisten, Politikern und Gesetzgebern Rechnung zu tragen, gibt es zusätzliche Vorgaben für mehr Beton, Stahl und Rohrleitungen – und sogar zusätzliche Kosten für Rechtsanwälte, Papierkram und Zeit. [Anm. d. Redaktion: Hier schreibt Matt Ridley den aktuellen Status einfach fort. Schon bei KKW der 3. Generation, aber noch viel mehr bei KKW Kernkraftwerke der 4. Generation benötigt man derartige Vorkehrungen nicht mehr. Damit fallen auch div. Zulassungsbeschränkungen weg, sofern sie nicht – zumindest hierzulande- durch neue politisch motivierte ersetzt werden) Dahinter steckte die Absicht, Kernkraftwerke in riesige und umständliche Zeitverschwendungs-Maschinen zu verwandeln, ohne Wettbewerb oder Experimentieren, um die Kosten zu senken. Kernkraft kann derzeit im Wettbewerb nur mit Subventionen neben fossilen Treibstoffen bestehen.

Kommen wir zu erneuerbarer Energie: Wasserkraft ist der größte und billigste Versorger, aber gleichzeitig auch derjenige mit der geringsten Erweiterungs-Kapazität. Technologien zum Einfangen der Energie von Wellen und der Gezeiten bleiben unbezahlbar und unpraktikabel, und die meisten Experten gehen davon aus, dass sich daran vorerst auch nichts ändert. Und Bioenergie – das heißt Holz, Äthanol aus Mais oder Zuckerrohr oder Diesel aus Palmöl – hat sich als ein ökologisches Desaster herausgestellt. Es führt zu Entwaldung und dramatischen Steigerungen von Preisen für Nahrungsmittel, was verheerende Folgen für die Atmen dieser Welt hat. Außerdem wird bei dieser Art der Energieerzeugung mehr CO2 freigesetzt als bei der Verbrennung von Kohle.

Windenergie hat inzwischen trotz all der Steuergelder für deren Expansion einen Anteil von – Moment – 1 Prozent des Weltenergieverbrauchs im Jahre 2013 erreicht. Solarenergie ist trotz des riesigen Hypes um sie herum noch nicht einmal so weit gekommen: Falls wir auf die nächste ganze Zahl runden, beträgt ihr Anteil am Weltenergieverbrauch 0 Prozent. [Hervorhebung vom Übersetzer]

Sowohl Wind- als auch Solarenergie sind vollständig abhängig von Subventionen bei der ökonomischen Brauchbarkeit, die sie derzeit haben. Weltweit belaufen sich die Subventionen für erneuerbare Energie gegenwärtig auf grob geschätzt 10 Dollar pro Gigajoule. Diese Summen werden von Verbrauchern gezahlt und gehen an die Erzeuger, so dass sie dazu tendieren, von den Armen zu den Reichen zu fließen, oftmals an Landbesitzer. (Ich bin ein Landbesitzer und kann bestätigen, dass ich viele Angebote von risikofreien Wind- und Solarsubventionen bekomme – und ablehne).

Es stimmt, dass einige Länder den Gebrauch fossiler Treibstoffe subventionieren, aber das tun sie mit einer viel geringeren Rate – das weltweite Mittel beträgt etwa 1,20 Dollar pro Gigajoule – und hierbei handelt es sich zumeist um Subventionen für Verbraucher (nicht Erzeuger), so dass diese dazu tendieren, den Armen zu helfen, für die Ausgaben für Energie ein unverhältnismäßig hoher Anteil an ihren Gesamtausgaben ausmachen.

Die Kosten für erneuerbare Energie sinken zwar, vor allem bei Solar. Aber selbst wenn Solarpaneele umsonst wären, würde die von ihnen erzeugte Energie immer noch kaum mit fossilen Treibstoffen im Wettbewerb bestehen können – außer in sehr sonnigen Gebieten – weil die Hauptausrüstung vorhanden sein muss, diese Energie zu konzentrieren und zu transportieren. Darin enthalten sind noch nicht der immense Landverbrauch durch die Installation dieser Paneele sowie die Kosten ausreichender konventioneller Erzeugungskapazität, um die Versorgung auch an einem dunklen, kalten, windstillen Abend sicherzustellen.

Die zwei fundamentalen Probleme erneuerbarer Energie sind, dass sie zu viel Raum beanspruchen und zu wenig Energie erzeugen. Man betrachte Solar Impulse, das solar angetriebene Flugzeug, das derzeit um die Welt fliegt. Trotz der enormen Flügelspannweite (ähnlich einer Boeing 747), geringer Geschwindigkeit und häufigen Zwischenlandungen ist die einzige Fracht, die das Flugzeug tragen kann, die Piloten selbst. Das ist eine gute Metapher für die Grenzen der Erneuerbaren.

Um die US-Wirtschaft komplett mit Windenergie zu versorgen, würde man für den entsprechenden Windpark das Gebiet von Texas, Kalifornien und New Mexico zusammen benötigen – mit Gas als Backup an windstillen Tagen. Um sie mit Holz zu versorgen, bräuchte man einen Wald, der zwei Drittel des Gebietes der USA bedecken würde, den man stark und ununterbrochen roden müsste.

John Constable, der einem neuen Energieinstitut an der University of Buckingham in UK vorstehen wird, weist darauf hin, dass das Rinnsal von Energie, das die Menschen aus Wind, Wasser und Holz vor der Industriellen Revolution extrahieren konnten, eine gewaltige Beschränkung für Entwicklung und Fortschritt war. Die ständige Mühe von Farmarbeitern erzeugte so wenig überschüssige Energie in Form von Nahrungsmitteln für Mensch und Vieh, dass die Akkumulation von Kapital wie etwa der Maschinen-Fuhrpark ein schmerzhaft langsamer Prozess war. Selbst noch Ende des 18. Jahrhunderts war diese energiearme Wirtschaft lediglich ausreichend, um das Leben für einen Bruchteil der Bevölkerung zu bereichern.

Unser alter Feind, der Zweite Hauptsatz der Thermodynamik, ist hier das Problem. Wie das Schlafzimmer eines Teenagers allgemein illustriert, das man sich selbst überlässt, wird alles immer weniger geordnet, chaotischer und tendiert zu Entropie oder thermodynamischem Gleichgewicht. [Als Philosoph kann man es auch so ausdrücken: Jedes allein gelassene Kind in seinem Kinderzimmer beweist das Entropiegesetz. Anm. d. Übers.] Um diese Tendenz umzukehren und etwas Komplexes, Geordnetes und Funktionsfähiges zu erschaffen, ist Arbeit erforderlich. Und Arbeit erfordert Energie.

Je mehr Energie zur Verfügung steht, umso aufwändiger, stärker und komplexer kann man ein System erschaffen. Genau wie der menschliche Körper Energie braucht, um ordentlich zu bestehen, gilt das auch für Gesellschaften. In dieser Hinsicht waren fossile Treibstoffe ein eindeutiger Fortschritt, weil sie es den Menschen erlaubten, außerordentlich komplexe Dinge – Maschinen und Gebäude – zu erzeugen, womit sich ihr Leben enorm verbessert hat.

Die Folge dieses gewaltigen Energieschubs ist das, was die Wirtschaftswissenschaftlerin und Philosophin Deirdre McCloskey die Große Bereicherung nennt. Im Falle der USA gab es grob geschätzt eine Wertzunahme von 9000% bei Gütern und Dienstleistungen für alle Amerikaner seit dem Jahr 1800, die fast vollständig auf fossilen Treibstoffen beruht.

Immer noch haben über eine Milliarde Menschen auf dem Planeten keinen Zugang zu Strom und können daher nicht an dem enormen Schub des Lebensstandards teilhaben, den ausreichend Energie mit sich bringt. Dies ist nicht nur eine Unbequemlichkeit für sie: Luftverschmutzung in Räumen durch Holzfeuer tötet pro Jahr etwa 4 Millionen Menschen. Das nächste Mal, wenn Sie von irgendjemandem belehrt werden über das mögliche schlimme Schicksal Ihrer Enkel, zeigen Sie ihm das Bild eines afrikanischen Kindes, das heute diesen Dreck eines rauchenden Feuers einatmen muss.

Man bedenke auch, auf welch vielfältige Weise fossile Treibstoffe zum Erhalt des Planeten beigetragen haben. Der amerikanische Autor und Befürworter fossiler Treibstoffe Alex Epstein zeigt in einem tapfer gegen den Mainstream kämpfenden Buch mit dem Titel „The Moral Case for Fossil Fuels“, dass der Verbrauch von Kohle die Entwaldung von Europa und Nordamerika zunächst gestoppt und dann umgekehrt hat. Der Gebrauch von Öl sorgte für ein Ende des Abschlachtens von Walen und Seelöwen, um an deren Blubber zu kommen. Auf der Grundlage von Gas erzeugte Düngemittel halbierten den Landverbrauch bei der Erzeugung einer gegebenen Menge von Nahrungsmitteln, was eine wachsende Bevölkerung satt machte und mehr Land für den Naturschutz übrig ließ. [Hervorhebung vom Übersetzer]

Um diese immensen ökonomischen, umweltlichen und moralischen Vorteile über Bord zu werfen, muss man sehr gute Gründe haben. Der heute am häufigsten genannte Grund ist, dass wir das Klima des Planeten zerstören. Aber tun wir das wirklich?

Obwohl sich die Welt sicherlich seit dem 19. Jahrhundert erwärmt hat, war die Rate dieser Erwärmung langsam und erratisch. Es gab keine Zunahme der Häufigkeit und Stärke von Stürmen oder Dürren, keine Beschleunigung des Meeresspiegel-Anstiegs. Das arktische Meereis hat ab-, das antarktische Meereis aber zugenommen. Gleichzeitig haben Wissenschaftler übereinstimmend festgestellt, dass zusätzliches CO2 in der Luft zu einer Verbesserung der Ernteerträge beigetragen hat sowie zu einer Zunahme aller grünen Vegetation um etwa 14% seit dem Jahr 1980.

Das CO2-Emissionen Erwärmung verursachen könnten, ist kein neuer Gedanke. Bereits im Jahre 1938 dachte der britische Wissenschaftler Guy Callender, dass er bereits damals die Erwärmung finden konnte als Folge der CO2-Emissionen. Er räumte allerdings ein, dass sich dies „wahrscheinlich als vorteilhaft für die Menschheit erweisen wird“ durch die Nordverschiebung der Klimazonen, in denen Kultivierung möglich ist.

Erst in den siebziger und achtziger Jahren des vorigen Jahrhunderts haben Wissenschaftler angefangen zu sagen, dass die geringe Erwärmung als direkte Folge der Verbrennung fossiler Treibstoffe – etwa ein Grad Celsius pro Verdoppelung des CO2-Gehaltes in der Atmosphäre – erheblich verstärkt werden könnte durch Wasserdampf und zu einer gefährlichen Erwärmung von zwei bis vier Grad innerhalb eines Jahrhunderts führen könnte. Diese „Rückkopplungs“-Hypothese hoher „Sensitivität“ verbleibt in nahezu allen vom IPCC bis auf den heutigen Tag verwendeten mathematischen Modellen zur Vorhersage des Klimas.

Dabei wird immer klarer, dass dies falsch ist. Wie Patrick Michaels vom libertären Cato Institute geschrieben hat: Seit dem Jahr 2000 sind 14 begutachtete Studien, veröffentlicht von 42 Autoren, von denen viele zentral zu den IPCC-Berichten beigetragen haben, zu dem Ergebnis gekommen, dass die Klimasensitivität gering ist, weil die Gesamt-Rückkopplungen moderat sind. Sie kommen zu diesem Ergebnis auf der Grundlage beobachteter Temperaturänderungen, der Wärmeaufnahme der Ozeane und dem Gleichgewicht wischen erwärmenden und abkühlenden Emissionen (hauptsächlich Sulfat-Aerosole). Im Mittel stellen sie eine um 40% geringere Sensitivität fest als von den Modellen errechnet, auf die sich das IPCC stützt.

Wenn diese Schlussfolgerungen stimmen, würden sie erklären, warum sich die Erde während der letzten 35 Jahre nicht einmal annähernd so stark erwärmt hat wie prophezeit, zu einer Zeit also, als die Erwärmungsrate – trotz des schneller als erwartet steigenden CO2-Niveaus – nicht einmal zwei Zehntelgrad pro Jahrzehnt erreicht und sich während der letzten 15 bis 20 Jahre auf fast nichts verlangsamt hat. Dies ist einer der Gründe, warum im jüngsten IPCC-Bericht kein „Best Estimate“ der Sensitivität angegeben wird und warum die Schätzung der Erwärmung im Kurzfristzeitraum verringert wurde.

Die meisten Wissenschaftler weigern sich jedoch, die Modelle zu verwerfen und vertreten den Standpunkt, dass der gegenwärtige „Stillstand“ die rapide Erwärmung lediglich verzögert hat. Ein Wendepunkt hin zu einer gefährlichen rapiden Erwärmung könnte schon hinter der nächsten Ecke lauern, obwohl sich ein solcher inzwischen hätte zeigen müssen. Es wäre also angebracht, um etwas zur Verringerung unserer Emissionen zu tun, solange es nicht die Armen schädigt und jene, die einen modernen Lebensstandard zu erreichen trachten.

Wir sollten uns hinter die Ersetzung von Kohle durch Gas bei der Stromerzeugung stellen, Anreize für [die Verbesserung der] Energieeffizienz schaffen, Kernkraft wiederbeleben und Solarenergie und Stromspeichermöglichkeiten versuchen weiterzuentwickeln. Wir sollten auch in Forschungen investieren, CO2 aus der Luft zu holen [wieso das denn?! Anm. d. Übers.] durch Düngung der Ozeane oder durch CCS. All diese Maßnahmen machen Sinn. [Schade! Mit dieser Ansicht widerspricht Ridley seinem gesamten Artikel bis hier und entwertet ihn auch. Anm. d. Übers.] Und wir haben allen Grund, unbegrenzt nach völlig unerwarteten neuen Energiequellen zu suchen [stimmt! Anm. d. Übers.]

Was wirklich nicht funktionieren wird, ist das, worauf die Umweltbewegung mit aller Gewalt besteht: nämlich die kumpelhafte Subventionierung von Kapitalisten, um erneuerbare Energiesysteme zu errichten mit geringer Energiedichte, geringem Output, die kapitalintensiv und landhungrig sind, während man gleichzeitig den Armen nahelegt, ihren Traum von einem besseren Leben durch fossile Treibstoffe aufzugeben.

Mr. Ridley is the author of “The Rational Optimist: How Prosperity Evolves” and a member of the British House of Lords. He is a member of the GWPF’s Academic Advisory Council

The Wall Street Journal, 14 March 2015

Link: http://www.thegwpf.com/matt-ridley-fossil-fuels-will-save-the-world-really/

Übersetzt von Chris Frey EIKE




Irreführende Berichterstattung im ARD-Nachtmagazin: Durch den Atomgau von Fukushima kamen mehr als 18.000 Menschen ums Leben

Anmerkung der Redaktion: Die Wahrheit ist, nach allen vorliegenden offiziellen Untersuchungen, kam durch die Strahlung bei der Kraftwerkshavarie kein einziger ums Leben. Hingegen starben die genannten 18.000 Menschen an den Folgen des Tsunami. Weitere rd. 1600 kamen bisher stressbedingt durch die von den Behörden angeordneten Massen-Evakuierungen um Leben, die nach Meinung vieler Strahlungsexperten völlig unnötig war.

Videoausschnitt der skandalös falschen und grob irreführenden Berichterstattung von Nachtmagazin Moderator Gabi Bauer über die Folgen des AtomGau von Fukushima vor vier Jahren: Zitat „Als erstes explodiert Reaktorblock Eins des Atomkraftwerks Fukushima, in drei Blöcken kommt es später zur Kernschmelze. Mehr als 18.000 Menschen werden bei dem Unglück getötet.“ Mit Dank an Michael Krüger für das Herunterladen und Aufbereiten in Youtube. Zuerst erschienen bei ScienceSceptical

♦  Hannovers Oberbürgermeister Stefan Schostok, im Gedenken an die 20.000 Opfer der Atom-Katastrophe in Fukushima

♦  Eltern beim Sex erwischt: Das Bundesumweltministerium erfreut Klimaschützer mit Videokampagne

♦  Deutsche Welle: Tausende Menschen starben wegen Kernschmelze in Fukushima




Schweizer Fernsehen erzählt Märchen über meteorologische Fähigkeiten -Schweizer Unterstützer gesucht zur Korrektur von Falschaussagen beim SRF

Nach erster Ablehnung, Widerspruch und darauf folgendem langem Schweigen erreichte sie.

„am Mittwoch, 11.03.2015 eine erste Antwort von der UBI, die uns u.a. mitteilt, wir sollen doch “zur Sicherheit” bis zum 23.03.2015 mindestens 20 Namen von Schweizer Personen benennen, die unsere Beschwerde unterstützen, damit wir auf jeden Fall die Voraussetzungen einer sog. Popularbeschwerde nach Art. 94 Abs 2 und 3 RTVG erfüllen.

Deshalb unsere heutige Bitte an alle Schweizer: Wenn Sie unsere UBI-Beschwerde vom 04.03.2015 unterstützen wollen und die Notwendigkeit unserer Beschwerde erkennen, füllen Sie bitte das verlinkte Beschwerdeformular mit Ihren Personalien und Ihrer Unterschrift aus und senden uns das Formular bis spätestens Freitag, den 20.03.2015 (Eingang bei uns) per Post an uns zurück, damit wir am Samstag, den 21.03.2015 die Original-Formulare mit den mindestens 20 Unterschriften an die UBI versenden können..“

Weiterlesen und mitmachen hier




Die letzte Schlacht des Klima-Alarmismus‘?

Die Erde hat keine Temperatur, und es gibt keine Möglichkeit, eine wissenschaftlich akzeptable Mitteltemperatur abzuleiten. Es ist unmöglich zu wissen, ob sich die Erde erwärmt oder abkühlt. Außerdem ändert sich das Klima ständig. Nichts davon ist jemals im Gleichgewicht.

Die Spurengase in der Atmosphäre sind nicht gut durchmischt, und ihre Konzentrationen ändern sich ständig an jedem Ort. Es ist nicht möglich, eine mittlere Konzentration auch nur für ein einziges davon abzuleiten. Außerdem hat das Studium der Wissenschaft vom Klima, im Laufe vieler Jahrhunderte als eine Disziplin der Meteorologie, offiziell die Wettervorhersage als Dienstleistung in den meisten Ländern etabliert. Diese Dienstleister messen jetzt viele Klima-Eigenheiten mit einer Vielfalt von Instrumenten einschließlich Satelliten.

Die Messungen fließen in die aktuellsten Computermodelle ein, die auf akzeptierter Physik, Thermodynamik und Statistik basieren. Sie stellen die einzige wissenschaftlich fundierte tägliche Wettervorhersage für jeden Teil der Erde zur Verfügung.

Die Messung des atmosphärischen CO2-Gehaltes hat sich nicht als nützlich erwiesen, und die Dienstleister machen sich nicht einmal die Mühe, ihn zu messen. Es ist einfach nicht möglich, diesen Schwierigkeiten mit ehrlicher Wissenschaft beizukommen. Daher war es notwendig, Schummel, Unehrlichkeit, Verzerrungen, Fabrikation, massive PR und enorme Summen Geldes zu bemühen.

Jim Hansen vom GISS in New York brachte eine globale Pseudo-Temperaturtechnik ins Spiel, die sich für die Betrüger als sehr nützlich erwiesen hat. Er räumt ein, dass es so etwas wie eine Absolute Lufttemperatur an der Erdoberfläche (SAT; er nennt es ,schwer fassbar‘ [elusive]). Meteorologen wissen, dass es unmöglich ist, eine plausible mittlere Oberflächen-Lufttemperatur zu messen. Stattdessen zeichnen sie Maximum und Minimum in einer geschützten Wetterhütte an ihren Stationen auf. Heute messen sie auch unterschiedliche Intervalle.

Diese sind ein nützlicher Weg, Temperaturbedingungen festzustellen.

Hansen und Lebedeff (1987) entschieden sich zu ignorieren, dass das, was Hansen gesagt hatte, unmöglich war. Sie ordneten jeder Wetterstation für einen ganzen Monat eine konstante Temperatur zu und legten fest, dass diese Temperatur auch in einem Radius von 100 km rund um jede Station gültig war. Die gewählte Temperaturen waren die an jener Station einen Monat lang gemessenen totalen Maximum- und Minimum-Temperaturen, aus deren Summe der statistisch unakzeptable jeweilige Mittelwert gebildet wurde.

Sie überlegten sich, dass jede Stationstemperatur mit der nächsten Wetterstation korreliert sein könnte. Aber ihr Korrelations-Koeffizient betrug nur 0,5 oder weniger. Mittels Subtraktion der Mittelwerte von den Stationen in allen Breite/Länge-Gitterpunkten vom Mittelwert in jeder Gitterbox bekamen sie eine Aufzeichnung der jährlichen globalen Temperaturanomalie. Die sehr große Ungenauigkeit dieser Werte wird nicht erwähnt, obwohl diese auf jeden Fall dazugehört, und auch nicht die variierende Anzahl und Qualität der globalen Wetterstationen, sowohl im Augenblick als auch mit der Zeit.

Das IPCC hat den vermeintlichen Trend von popeligen wenigen Zehntelgrad für diese Erfindung herangezogen, um zu beweisen, dass die globale Erwärmung im Gange ist und unvermeidlich gefährlich zunehmen wird. Jetzt ist diese Erfindung zusammengebrochen.

Der Trend hat sich während der letzten 18 Jahre kaum verändert, während [der Anteil der] vermeintlichen Treibhausgase zugenommen hat. Das IPCC hat inzwischen zu verzweifelten Maßnahmen gegriffen. Anstatt uns Sorgen vor einer jährlichen Erwärmung zu machen, müssen wir uns jetzt Sorgen über eine dekadische Erwärmung machen. Bemühungen werden unternommen, um die Zahlen zu frisieren und bei jeder Gelegenheit einen geringen Anstieg von ein paar Hundertstel Grad zu verkünden. Der erforderliche Umgang mit dem atmosphärischen CO2 wurde von Charles Keeling am Scripps Institute of Oceanography La Jolla in Kalifornien propagiert.

Die erheblich vereinfachenden Klimamodelle gehen davon aus, dass der atmosphärische CO2-Gehalt global konstant ist und nur durch mehr menschliche Emissionen zunimmt.

Dies war ein Problem, existieren doch etwa 40.000 frühere Messungen, die bis in das frühe 19. Jahrhundert zurückreichen und in berühmten begutachteten Journalen veröffentlicht worden waren, manchmal durch Gewinner des Nobelpreises. Diese Messungen zeigten, dass die bodennahen CO2-Konzentrationen niemals konstant sind und von einer Stelle zur nächsten sowie mit Tages- und Jahreszeit, aber auch der Windrichtung variieren.

Keeling verschwieg diese frühen Informationen. Er entschuldigte dies damit, dass er eine etwas unterschiedliche Messmethode angewendet und dass er dabei entdeckt hatte, dass es eine Hintergrund-Konzentration gibt, die nahezu konstant war und stetig mit zunehmenden Emissionen stieg. Keeling stellte seine Zahlen auf die Grundlage von Messungen am Vulkan Mauna Loa und an einer Stelle in der Antarktis.

Um einem global konstanten Wert zu jeder beliebigen Zeit möglichst nahe zu kommen, war es erforderlich, dass die meisten anderen Messungen an Küstenstationen bei Seewind erfolgten. Alle Zahlen, die nicht der Linie folgten, wurden als Rauschen ausgesondert.

Eine andere Schwierigkeit war, dass die mit den Jahren stetig zunehmenden Zahlen des CO2-Gehaltes nicht einfach zu dem ziemlich sporadischen Verhalten der genehmigten globalen Temperatur passten. Jetzt ist dieser CO2-Betrug zusammengebrochen.

[Nur dass zumindest uns hier in D diese Information vorenthalten wird. Anm. d. Übers.]

Das NASA-Satellitensystem AIRS liefert jetzt häufig globale Karten der CO2-Konzentrationen. Sie zeigen, dass diese Konzentration nicht gut durchmischt und hoch variabel ist und dazu tendiert, in Regionen mit höheren Emissionen höher zu sein. Der offiziell hoch gehaltene Hintergrund ist nicht mehr relevant, und die Tatsache, dass der vermeintliche Erwärmungseffekt von CO2 mit der Konzentration logarithmisch ist, bedeutet, dass die Zunahme kaum Auswirkungen in Gebieten mit hohen Konzentrationen hat und am effektivsten über Wäldern und Weideland ist, wo sie vorteilhaft wirken.

Die IPCC-Klimamodelle trotzen all diesem kumulierten Wissen der Klimawissenschaft, der gegenwärtig die Meteorologen folgen, und ersetzt es durch ein System von Absurditäten, das erstaunlich erfolgreich war.

Anstelle des sich immer ändernden Klimas, wie wir es wissen, wird es jetzt als statisch vorausgesetzt. Aller Austausch von Wärme erfolgt durch Strahlung. Zugegebenermaßen sind Input und Output Strahlung, aber alles andere beim Klima ist eine Kombination von allen Vorgängen wie Wärmeaustausch, vorherrschendes Leitvermögen, Konvektion und Austausch latenter Wärme.

Von der Sonne wird angenommen, dass sie Tag und Nacht mit gleicher Intensität scheint. Die Erde ist tot, wo lebende Kreaturen unmöglich sind – es sei denn, sie emittieren Treibhausgase. Alle in der Meteorologie bekannten Klimaauswirkungen der Vergangenheit werden parametrisiert und als konstant vorausgesetzt.

Ein solches Modell hat keine Chance, je in der Lage zu sein, das zukünftige Klima vorherzusagen, und selbst das IPCC räumt dies ein. Es sagt, dass die Modelle Projektionen liefern, aber niemals Prophezeiungen.

Anfangs hat das IPCC noch vermieden, als unrecht habend bloßgestellt zu werden, indem sie nur Projektionen so weit in die Zukunft verschoben, dass man sicher sein konnte, dass niemand lange genug leben würde, um das nachzuprüfen. Das IPCC gibt es nunmehr seit 25 Jahren, und die ersten Berichte mussten zeigen, dass die Modelle zu den Temperaturaufzeichnungen passen. Das ist jetzt nicht mehr der Fall.

Auch konnten die Modelle verwendet werden, um die Temperaturen der Hochtroposphäre zu berechnen, aber das funktioniert auch nicht mehr. Daher stecken sie tief in Schwierigkeiten. Alles, was sie jetzt noch tun können ist, die Menschen daran zu hindern, die Wahrheit zu sagen.

[Zum Thema ,Wahrheit‘ fällt mir als Möchtegern-Philosoph alles Mögliche ein. Aber das gehört nicht hierher. Anm. d. Übers.]

Jedes Nachrichten-Bulletin, jede Zeitung muss täglich etwas zur globalen Erwärmung oder dem Kohlenstoff-Fußabdruck bringen [und sei es nur irgendwo in einem Nebensatz wie z. B. in der ,Süddeutschen‘. Anm. d. Übers.]. Oder die Proteste von Klimaaktivisten erdulden, die alle Briefe an die Presse schreiben oder den Aufmarsch von Umwelt-Eiferern an irgendwelchen Diskussionsorten organisieren müssen. Es muss fortwährend Lektionen von all denen geben, die finanziell von diesem Betrug abhängig sind.

Mit Glück wird der Zusammenbruch von Walhall auf dem Pariser Klimatreffen im Dezember stattfinden, wo die Versuche, eine globale Klima-Diktatur zu etablieren, entweder scheitern oder im Sande verlaufen. Welch eine Erleichterung wäre das!

Link: http://www.principia-scientific.org/the-last-battle-of-climate-alarmism.html

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Hoffen wir, dass der Autor Vincent Gray recht hat! Ich habe schon zu viele Beiträge übersetzt, in denen das Ende des Klimaschwindels prophezeit wurde, was aber leider immer noch nicht der Fall ist.




Solarenergie-Propaganda kontra reale Welt

Wenn ein ehemaliger „leitender Kommunikations-Funktionär im Weißen Haus“ einen Blogbeitrag für U.S. News and World Report schreibt, sollte man dem vertrauen können. Aber wenn der Autor feststellt, dass die Keystone-Pipeline (sollte sie je genehmigt werden) nur 19 Wochen lang zeitweilige Arbeitsplätze mit sich bringen werde, ist alles andere, was er schreibt, höchst verdächtig – einschließlich der Behauptung, dass unsere „Energie-Infrastruktur bis zum Jahre 2030 zu 100% solar sein wird“.

Ich habe sowohl mit einem Repräsentanten der Gewerkschaft und einem von TransCanada Kontakt aufgenommen – das ist das Unternehmen hinter der Keystone-Pipeline. Beide bekräftigten, dass der 19-Wochen-Zeitrahmen reine Phantasie ist. Das noch zu bauende Teilstück der Keystone-Pipeline ist 1179 Meilen [ca. 1900 km] lang – der weitaus größte Teil davon in den USA – dessen Bau etwa zwei Jahre lang dauern wird.

Der Sprecher von TransCanada Mark Cooper beantwortete meine Anfrage so: „Während einige Leute diese Arbeitsplätze als zeitweilig verniedlichen, wissen wir, dass wir ohne zeitweilige Jobs beim Bau – und ohne die harte Arbeit der Männer und Frauen, die diese Arbeit leisten – keine Straßen, Autobahnen, Schulen oder Krankenhäuser hätten. Wir würden nicht das Empire State Building haben, die Golden Gate Bridge oder den Hoover-Damm. Ich würde also diesen Verleumdern zurufen: ;Schon in Ordnung, wenn ihr Keystone XL nicht mögt oder unterstützen wollt – aber hört auf, genau die Leute in den Schmutz zu ziehen, die geholfen haben, Amerika zu schaffen!’“.

Die Prämisse des Blogbeitrags On The Edge lautet, dass wir Keystone nicht als einen Erzeuger von Arbeitsplätzen betrachten sollten. Stattdessen, behauptet der Autor, befinden sich die Arbeitsplätze in einer „Solarenergie-Störung [disruption]“. Er ist frustriert, dass die „GOP-Führer* nahezu einhellig diese sich entwickelnde Energiewirtschaft ignorieren oder missachten“. Er schreibt weiter: „Ein Drittel der gesamten neuen Stromerzeugung im Jahre 2014 stammt von Solar. Eine neue Solarinstallation oder ein entsprechendes Projekt ist jetzt irgendwo in den USA im Gange – gebaut von einem Team amerikanischer Arbeiter, die im am schnellsten wachsenden Energiesektor der Welt beschäftigt sind – alle 3 Minuten“.

[GOP = Grand Old Party = die Republikaner]

Das mag ja stimmen, aber wir man sehen wird, werden dabei absichtlich viele wichtige Details übersehen. Es gibt viele Gründe für die Gesetzgeber der Republikaner, das Wachstum erneuerbarer Energie zu „missachten“. Falls „ein Drittel allen erzeugten Stromes im Jahre 2014 aus Solar stammt“, gibt es dafür Gründe – aber eine gesunde Wirtschaftspolitik ist nicht Teil davon.

Erstens, effiziente und effektive Grundlast: Kohlestrom, der den weitaus größten Anteil an Amerikas Strom hat, wird primär durch Vorschriften ausgebremst, die von Umweltlobbyisten angestoßen und von der Obama-Administration verbreitet worden sind. Es ist derzeit praktisch unmöglich, ein neues Kohlekraftwerk in den USA genehmigt zu bekommen. Selbst Gaskraftwerke wie das geplante Werk bei Salem Harbor, um das dort befindliche Kohlekraftwerk zu ersetzen, treffen auf den Widerstand von Gruppen wie Grassroots Against Another Salem Plant, welche sich auf die Fahnen geschrieben hat, „zivilen Ungehorsam an den Tag zu legen, um den Bau des Gaskraftwerkes zu blockieren“. Und natürlich, man versuche mal, ein Kernkraftwerk zu errichten, und alle Angsterzeuger kriechen aus ihren Löchern.

Was bleibt übrig? Erneuerbaren wie Wind und Solar wird eine begünstigende Behandlung zuteil in Gestalt einer Kombination von Verfügungen und Subventionen. Selbst industrielle Wind und Solar haben ihre eigene Opposition innerhalb der Umwelt-Lobbygruppen, weil sie Vögel und Fledermäuse zerschmettern – einschließlich streng geschützter Weißkopf- und Steinadler.

Der brandneue Bericht Solar Power in the U.S. (SPUS) präsentiert eine umfassende Übersicht über die Auswirkungen der Solarenergie auf die Verbraucher der Nation.

Eines geht daraus ganz klar hervor: Ohne die Verfügungen und Subventionen würde es um die „Solarenergie-Disruption“ stockdunkel werden.

Wir haben erlebt, dass Unternehmen wie Solyndra, Abound Solar und Evergreen Solar bankrott gehen, selbst mit Unterstützung von Millionen Dollars seitens staatlicher Stellen (also des Steuerzahlers). Ich habe ausführlich etwas dazu geschrieben (hier) und auch zu der Story um Abengoa – welche die größte staatliche Kreditbürgschaft (2,8 Milliarden Dollar) erhalten hatte, und welche zu fragwürdigen Geschäftspraktiken gegriffen hat, um die Türen offen zu halten (Abengoa ist derzeit Gegenstand von Untersuchungen zahlreicher staatlicher Agenturen).

SPUS zeigt, dass erneuerbare Projekte ohne die Subventionen und Förderungen nicht überlebensfähig sind. Beispiel Australien: Dort gingen die Verkäufe von Solarsystemen „stark zurück, nachdem die Anreize stark gekürzt worden waren“. Seit die australische Regierung angekündigt hat, ihre Ziele bzgl. erneuerbarer Energie zu überdenken, „haben die Investitionen angefangen auszutrocknen“.

Sich der Bedeutung dieser „Anreize“ wohl bewusst wurde die Solarindustrie mittlerweile zu einem massiven Kampagnen-Finanzierer. Sie übt politischen Druck aus und gibt Geld an Kandidaten, die mehr Anreize, Subventionen und Steuervorteile auf den Weg bringen wollen. Jene Kandidaten sind im Allgemeinen Demokraten, ist doch einer der Hauptunterschiede zwischen den beiden Parteien dergestalt, dass die Demokraten dazu tendieren, die Einmischungen der Regierung zu unterstützen.

Im Gegensatz dazu wollen die Republikaner den Einfluss der Regierung zurückdrängen und bestehen auf dem freien Markt. Die Republikaner „missachten“ Solar nicht, aber sie wissen, dass Solar nur wegen der Regierungs-Verfügungen überleben kann, die einen bestimmten Prozentsatz an erneuerbarem Strom und besonders Solarstrom am Energiemix vorschreiben, plus die Subventionen und Steuervorteile, die diesen Strom attraktiv machen. Daher können sie nicht in Begeisterung ausbrechen über die Arbeitsplätze, die erzeugt werden als Folge der unfreiwilligen Investitionen der Steuerzahler oder auch höhere Energiekosten. Es ist ein gewaltiger Unterschied zwischen der Ablehnung von Solarenergie und der Ablehnung der regierungsamtlichen Einmischung, die der Solarenergie auf dem Markt einen unfairen Vorteil verschafft.

In dem Blogbeitrag wird die „Solarenergie-Disruption“ verglichen mit dem, was „passiert, wenn direcTV and Dish anfangen würden, mit dem Kabelfernsehen im Wettbewerb zu stehen. Es würde sich eine größere Auswahl ergeben, und eine Menge neuer Arbeitsplätze würde geschaffen werden“. Allerdings würden diese Arbeitsplätze durch private Investitionen geschaffen und den freien Markt – eine Tatsache, die zusammen mit der Abhängigkeit von Solar von Anreizen niemals erwähnt wird. Auch die Arbeitsplätze beim Bau der Keystone-Pipeline wären privat geschaffen.

Der Autor des Blogs wirbt für diese Behauptung, aus dem Buch Clean Disruption: „Sollte Solar seiner exponentiellen Trajektorie weiter folgen, wird die Energie-Infrastruktur bis zum Jahre 2030 zu 100% solar sein“ – also in 15 Jahren. Selbst falls die Regierung weiterhin Geld in Solarenergie steckt – wobei, wie aus SPUS hervorgeht, die Subventionen schon an verschiedenen Fronten zurückgefahren werden – gibt es in absehbarer Zeit keine Lösung für die Periodizität von Solar.

SPUS erwähnt ausdrücklich das Beispiel von Deutschland, welches weltweit führend war in Solar und anderen Erneuerbaren. Mit der Zeit hat die hohe Durchdringung mit Erneuerbaren dazu beigetragen, dass sich die Strompreise der Bürger mehr als verdoppelt haben. Erneuerbare erhielten einen bevorzugten Status, „Einspeise-Vorrang“ genannt. Dies bedeutet, dass bei Verfügbarkeit erneuerbarer Energie diese zuerst ins Netz gespeist werden muss, was die Leistung thermische Kraftwerke deutlich verändert. Viele moderne heutige Gaskraftwerke können ebenso wie Kohlekraftwerke nicht mehr profitabel betrieben werden. Als Folge wurden viele davon geschlossen, während viele andere dieser Kraftwerke „Kapazitäts-Zahlungen“ der Regierung (also eine Doppelsubvention!) erhalten, um als Backup am Netz zu bleiben, um die Stabilität des Netzes zu gewährleisten. In Deutschland treibt man einen Anteil von 80% erneuerbarer Energie bis zum Jahr 2050 voran, doch hat sich jetzt herausgestellt, dass trotz dieses hohen Anteils von Erneuerbaren angesichts ihrer inhärenten Periodizität eine große Menge an Kohle- und Erdgasstrom erhalten bleiben muss, um die Zuverlässigkeit des Netzes zu erhalten (Kernkraft wird dabei ausgeschlossen).

Wie das deutsche Experiment eindeutig zeigt, ist „100% Solar bis zum Jahre 2030“ ohne einen wesentlichen technologischen Durchbruch bei der Speicherung von Solarstrom nichts weiter als eine Phantasterei mehr.

Der Blogbeitrag endet mit diesen Worten: „Die republikanische Mehrheit im Kongress ignoriert diese neuen Jobs innerhalb eines innovativen, trennenden [disruptive] Energiesektors, der dabei ist, das Land zu überschwemmen – zugunsten einer verschwindend kleinen Anzahl mythischer Keystone-„Arbeitsplätze“, die sich vielleicht niemals materialisieren. Das lässt einen mit der Frage zurück: Warum?“

Die Antworten kann man in SPUS finden, werden doch darin die Politik, Vorschriften und Verbraucherschutz angesprochen, die sich selbst manifestiert haben durch den rapiden Anstieg von Solarenergie und Deals mit noch vielen weiteren Elementen, die hier nicht angesprochen wurden. Die Schlussfolgerung lautet: „Solar ist ein bedeutender Teil unserer Energiezukunft, aber man muss dabei vorausdenken: Zukünftige Kosten, Arbeitsplätze, Energie-Zuverlässigkeit und die Energie-Infrastruktur allgemein müssen bedacht werden. Diese Technologie muss einhergehen mit den Bedürfnissen der Steuerzahler, der Verbraucher und der Stromzahler im Hinterkopf anstatt der Solarindustrie Priorität einzuräumen“.

CFACT policy analyst Marita Noon is the author of Energy Freedom.,

Link: http://www.cfact.org/2015/03/10/solar-power-propaganda-vs-the-real-world/

Übersetzt von Chris Frey EIKE