Nordamerikas Reserven an unkonventionellem Gas knapp 100 Billionen Kubikmeter

Der Informationsdienst „Naturgas“ (NGI) berichtete:

In der vergangenen Woche wurden unabhängige Studien zweier kanadischer Firmen vorgelegt, welche die Vorräte an westkanadischen und US-amerikanischen Schiefergasreserven auf die Größenordnung von Trillionen Kubikfuß anhoben: auf 3,3 Quadrillionen Kubikfuß. [Anm. d. Ü.: Es handelt sich um amerikanische sogenannte ‚short scale’ Werte, d. h. eine Quadrillion entspricht 10^15, also unserer Billiarde. Auf europäische Werte umgerechnet und gerundet entspricht das Volumen ca. 93 Billionen Kubikmetern. Ein cbf entspricht dabei 0,028316 m^3)]
Die in Calgary ansässige Firma Sproule Associates, eine der ältesten und größten kanadischen Erdölberatungsfirmen kündigte vergangene Woche ihre Untersuchung an, dass bereits gerade mal fünf von fünfzig in Westkanada entdeckten Schiefergaslagerstätten bereits über geschätzte Vorkommen zwischen 0,809 und 2,2 Quadrillionen Kubikfuß verfügten [23 – 62 * 10^12 Kubikmeter].
Eine neue Analyse der ebenfalls in Calgary ansässigen ITG Investment Research mit dem Titel "No More Guessing: Hardcore IV" zeigt für die südlicheren U.S.- Bundesstaaten 1,1 Qcfe [31 * 10^12 Kubikmeter] förderbare Vorräte an 450.000 Bohrstandorten. Während die Gesamtmenge die Daten von 37 U.S. Schiefergaslagerstätten enthält, schätzt ITG die förderbaren Vorräte in gerade mal 10 zusammenhängenden Lagerstätten auf 900 Tcfe [25 * 10^12 Kubikmeter]. Zum Vergleich: In einer anderen aktuellen Studie der US-Energie-Informations-Behörde war für diese Lagerstätten ein Gesamtvorrat von 426 Tcfe [12 * 10^12 Kubikmeter] angegeben worden.
Zusammengenommen kommt man auf ein Potential von 3,3 Qcf [rund 93 * 10^12 Kubikmeter]. Die Untersuchung der kanadischen Vorräte durch die Firma Sproule ist spekulativer, weil dort weniger Probebohrungen und Erschließungen stattfanden. Der Bericht sagt, dass "unter den gegebenen Umständen der noch in den Anfängen steckenden Erschließung und der noch begrenzt verfügbaren Produktionsdaten aus diesen Lagerstätten eine Bandbreite für die Mengen anzugeben ist, weil noch ein hoher Grad an Unsicherheit existiert.“ Der Bericht der Firma wurde beim kanadischen National Energy Board vorgelegt zur Unterstützung für das bislang größte geplante  Flüssig-Naturgas-Export-Terminal an der nördlichen Pazifikküste in British Columbia: das LNG-Canada-Project von Shell Canada und Tochterunternehmen der Mitsubishi Corp., Korea Gas Corp., PetroChina Investment.
Obgleich die beiden Studien unterschiedliche Verfahren anwandten, ergibt eine Zusammenschau eine grobe Mengenabschätzung des im nördlichen Zweidrittel Nordamerikas verfügbaren Schiefergases.
Weitere Informationen auf ShaleDaily.com. Dort kann man sich für eine Probeperiode kostenfrei einschreiben und die beiden Studien lesen: "U.S. Has 1.1 Quadrillion Cubic Feet of Resource, Says Researcher" und "Report Puts Canadian Shale Gas Resource Base at Up to 2,222 Tcf."
Intelligence Press Inc., eine unabhängige Informationsfirma für die Energiewirtschaft seit 1981, informiert mit aktuellen Nachrichten und Preisvergleichen für Naturgasmärkte in ihren Publikationen: Natural Gas Intelligence, Daily Gas Price Index, Weekly Gas Price Index. Die neueste Publikation, NGI’s Shale Daily ist der erste tägliche Informationsdienst, der sich ausschließlich der aufblühenden Revolution bei Schiefergas und -Öl widmet, welche die Energiezukunft North Amerikas neu ausrichtet.
Weitere Infos hier.
Übersetzung: Helmut Jäger, EIKE




„Weltklimarat“ IPCC arbeitet intransparent und mogelt nach Kräften! Ein Insider packt aus.

Im kommenden Jahr soll der fünfte Sachstandsbericht des Weltklimarats (IPCC) veröffentlicht werden. Dann wird es auch wieder eine Debatte um die Seriosität dieses Reports geben. In der Vergangenheit hatten Manipulationsvorwürfe die Glaubwürdigkeit des Papiers als Ganzes in Mitleidenschaft gezogen.
Nun hat mit einem der Autoren des vierten IPCC-Berichts erstmals ein Insider aus dem Weltklimarat die Methoden enthüllt, unter denen der Bericht zustande kommt: Ross McKIttrick, Ökonomieprofessor an der Universität Guelph im kanadischen Bundesstaat Ontario.
McKIttrick ist am 17.9.12 in Berlin aufgetreten, und was er dort in einem minutiös detaillierten undefinedVortrag berichtete, untermauert die Zweifel an dem Hunderte von Seiten umfassenden Gesamtwerk. „Es ist sehr schwach und weit weg von akademischen Standards“, sagte McKittrick über den Inhalt der Studie, an der er 2005 und 2006 mitgearbeitet hat.

Großer Einfluß des WWF in allen Autorengruppen

Zum einen kritisiert er die Zusammensetzung des Autorengremiums. Es wird suggeriert, als wäre die Elite der Wissenschaft zusammen, um die Berichte des IPCC zu schreiben. In Wahrheit entsenden viele Länder gar keine Experten.
Jedes einzelne Hauptkapitel (gegliedert nach Arbeitsgebieten: hier "Working Group I", The Scientific Basis) nach wird von Autorengruppen, die wiederum die Unterkapitel bearbeiten.  McKIttrick war in der Working Group I und arbeitete an Entwürfen mit. Er mußte jedoch feststellen, daß seine Korrekturvorschläge ohne Begründung regelmäßig zurückgewiesen wurden. Nach Abschluß der Arbeit wurden zudem ohne Diskussion mit den Beteiligten gravierende Änderungen eingefügt. Im akademischen Bereich eine völlig inakzeptable Vorgehensweise, so McKIttrick.
Der Wissenschaftler weist zudem auf den Einfluß der Lobbygruppe World Wide Fund For Nature WWF (Details dazu hier im Vortrag von D. Lafromboise) hin.

28 von 44 Kapiteln seien von Gruppen verfaßt worden, in denen mindestens ein WWF-Mitglied saß. Auch die Führungsgruppen seien von WWF-Leuten dominiert.

McKittrick unterbreitet undefinedzehn Reformvorschläge. So rät er unter anderem dazu, die Berichte der Arbeitsgruppen immer gleich online zu stellen, um nachträglichen Manipulationen durch die IPCC-Strippenzieher einen Riegel vorzuschieben. Die Auswahlkriterien für die  Autoren sollten härter werden.

Vorschläge für eine Reform

1. Einführung eines objektiven und transparenten  Auswahlverfahren für die Lead Autoren.

2. Einführung eines transparente Ernennugnsprozesses der jeweiligen Fach-Autoren

3. Ernennung von Redakteurs-Aufsichtsräten und Identifizierung von potenziell kontroversen Abschnitte.

4. Explizite Zuordnung von beiden:  Autoren- und Gutachter Positionen. 

5. Einführung eines iterativen Prozess, um eine endgültige Fassung unter der gemeinsamen Aufsicht von Autoren, Gutachtern und Redakteuren zu erreichen.

6. Einführung eines Verfahrens für die Suche nach sachlich geeigneten Inhalten, wenn nötig von außerhalb der Liste der Autoren und Gutachter an der Assessment-Prozess.

7. Einführung eines "Due Diiligence"- (gebotene Sorgfalt) Verfahrens  in Bezug auf zentrale papers und die vollständige Offenlegung aller Daten und Methoden die die ursprünglichen IPCC Abbildungen und Tabellen zu erzeugen.

8. Sofortige Online-Veröffentlichung jedes vollständigen Berichts bei Abschluss desselben, noch vor der Erstellung der Zusammenfassung.

9. Erstellung der Zusammenfassung durch Ad-hoc-Arbeits-Gruppen des Gremiums, die auf Empfehlungen des Redakteurs-Aufsichtsrats (Editorial Advisory Board) basierend, ernannt werden.

10. Veröffentlichung aller Entwürfe, Review-Kommentaren, Antworten und Autoren-Korrespondenz samt Datensätzen innerhalb von 3 Monaten nach Online-Veröffentlichung des vollständigen Berichts.

Der Katalog von McKittrick endet mit der Forderung:

Dass die am IPCC beteiligten Nationen diese Reformen sofort starten, und, wenn ein solcher Reform-Prozess nicht eingeleitet werden kann, dann sollten sich die nationalen Regierungen, die wirklich an objektiver und fundierter Beratung zu Fragen des Klimawandels interessiert sein sollten, aus dem IPCC zurückziehen. Sie sollten dann den Prozess zum Aufbau einer neuen Institution beginnen, die frei von den oben genannten Mängeln ist.

Das Vorwort zu McKittricks Studie ( What is wrong with the IPCC?) hat der frühere australische Premierminister John Howard geschrieben, ein erklärter Gegner der gängigen Erderwärmungsthese. Der Report sei „gut recherchiert“ und seine Lektüre „notwendig“, um den IPCC-Bericht verstehen zu können, so Howard. (rg)
R. Gläser (Red. M.Limburg); zuerst erschienen auf Junge Freiheit




Bild-Umfrage: Bürger in großer Mehrheit für mehr Kernkraft, oder?

Das Thema gewinnt also an Fahrt, doch die Kanzlerin stellt sich unwissend:

„Kanzlerin Angela Merkel hat beim Arbeitgebertag ihr Unverständnis über teuren Strom zum Ausdruck gebracht.“

In wie weit ihr „Unverständnis“ berechtigt  ist, lesen Sie hier
Die Redaktion

Nachtrag 17.10.12

Die Bild-Umfrage zur Kernenergie endete am 16.10.12 um 0:00 mit 118.827 Teilnehmern und einem unveränderten Votum von 65 % Ja, und 35 % Nein Stimmen.




Der Hype um den Ökostrom folgt dem Niedergang beim Klimawandel-Die fünf Rechentricks der Ökobranche nebst einem Kommentar

Unter dem Titel “So rechnet die Ökobranche die Energiewende schön” zeigt Autor Daniel Wetzel in der „Welt am Sonntag“ eine überaus interessante Auflistung. Ich empfehle allen, den Artikel in gesamter Länge zu lesen. Hier sind die fünf Punkte, mit deren Hilfe die Ökobranche jetzt versucht, den Schwarzen Peter für die Erhöhung der EEG-Umlage wahlweise an die Industrie oder an die Politik weiterzugeben. Wobei der fünfte Punkt eigentlich eine Rechtfertigung für die hohen Preise ist, weil ohne “Ökostrom” alles schließlich noch viel teurer werden würde.

Die Fünf Punkte in Auszügen:

1. Sündenbockindustrie

Die Kostenrelativierer behaupten, dass die Befreiung der Industrie von der EEG-Umlage verantwortlich für den teureren Ökostrom sei. Denn alle übrigen Verbraucher haben entsprechend höhere Kosten zu schultern. Die In dustrie entziehe sich der Finanzierung des “nationalen Gemeinschaftswerks” Energiewende.
Daran ist zwar richtig, dass viele Betriebe von der EEG-Umlage befreit sind, die dieses Privileg gar nicht nötig haben. Doch das macht aus der Industrie nicht den schlimmsten Kostentreiber der Energiewende. Allein die EEG-Umlage zur Förderung des Solarstroms ist mit 1,77 Cent pro Kilowattstunde dreimal so hoch wie die “besondere Ausgleichsregelung” der Industrie, die nur 0,6 Cent beträgt.

2. Höheres Angebot

Der Bundesverband Erneuerbarer Energien (BEE) kritisiert, in der Höhe der EEG-Umlage spiegele sich nicht wider, dass Ökostrom den Großhandelspreis für Elektrizität senkt.
Richtig daran ist, dass die Einspeisung von Ökostrom das Gleichgewicht von Angebot und Nachfrage an der Strombörse verschiebt: Wenn der Wind stark weht, verdrängt Ökostrom dank seines gesetzlichen Einspeisevorrangs den Strom etwa aus relativ teuren Gaskraftwerken vom Markt. Allerdings bewirkt dieser sogenannte Merit-Order-Effekt nur eine Preissenkung um rund 0,5 Cent pro Kilowattstunde (Es ist zudem festzuhalten, das der an der Strombörse angebotene Strom aus „Eneuerbaren“ zuvor schon von den Netzbetreibern mit vollem Satz nach EEG Umlage bezahlt wurde, die „Preissenkung“ bis hin zu „negativen Preisen“ d.h. Zuschuss des Anbieters für den „Käufer“ damit dieser den Strom abnimmt- senkt nicht den realen Preis, sondern erhöht ihn zusätzlich. Anmerkung von M.L.)   .
(…) unterschlagen wird stets, dass der Merit-Order-Effekt nur kurzfristig wirkt: Wenn dauerhaft die noch auf lange Sicht unverzichtbaren konventionellen Kraftwerke abgehängt werden, macht das – erneut umlagefinanzierte – Reservekraftwerke notwendig. Deren Kosten dürften die preisdämpfende Wirkung des Merit-Order-Effekts aufzehren.

3. Preistreiber Fiskus

Der eigentliche Preistreiber beim Strom sei der Staat, nicht der Ökostrom, wird argumentiert. Schließlich mache der Anteil von Steuern und Abgaben mehr als 45 Prozent am Strompreis aus.
Das Argument ist nicht ganz falsch, verschleiert aber, dass die EEG-Umlage zur Förderung von Ökostrom der zweitgrößte staatlich veranlasste Preisbestandteil nach der Umsatzsteuer ist. Sie hatte 2011 einen Anteil von rund 14 Prozent am Strompreis.

4. Präzedenzfall Atom

Die Ökostromsubventionen werden oft mit dem Argument relativiert, Atom- und Kohlekraft hätten ebenfalls Staatsgelder bekommen. So rechnet etwa Greenpeace.
Das mag ja stimmen, nur bremst das Argument nicht die Kostenlawine durch erneuerbare Energien. Zudem werden bei den Subventionen für Atom- und Kohlestrom oft Summen zusammenfantasiert, die mit der Realität wenig zu tun haben. Eine Greenpeace-Studie zu den Staatsbeihilfen für die Atomkraft rechnete zum Beispiel auch die Gelder mit ein, mit denen sich Deutschland an der Sicherung der AKW-Ruine in Tschernobyl beteiligte.

5. Knappe Ressourcen

Stets wird argumentiert, es werde sich auszahlen, eigentlich unwirtschaftliche Ökostromquellen zu subventionieren, weil die Kosten für fossile Energieträger noch viel stärker steigen würden.
Dennoch bleibt fraglich, warum der Aufbau mit unausgereifter Technologie unter künstlichem Zeitdruck und Aufgabe aller marktwirtschaftlichen Prinzipien geschehen muss – obwohl er das Risiko der De-Industrialisierung mit dem sozialer Schieflagen kombiniert.
Dank neuer Fördertechniken und Funde sind in den vergangenen Jahrzehnten die bekannten Erdölreserven der Welt nicht geschrumpft, sondern größer geworden. Die Reichweite der Gasreserven wird auf knapp 500 Jahre geschätzt. Durch die Schiefergas-Revolution haben sich die USA sogar vom Importeur zum Exporteur von Erdgas gewandelt. Der US-Verbraucher zahlt seither vier Fünftel weniger für Strom und Gas als der deutsche. Für Zeitdruck in der Energiewende spricht das nicht.
Ein Punkt, der aus meiner Sicht in dieser Aufzählung fehlt ist eigentlich ein ganz zentraler. Und zwar der eigentliche Grund, warum im Jahr 2000 das “Gesetz zum Vorrang Erneuerbarer Energien” überhaupt eingeführt wurde.

Ziel des EEG: die Förderung des Ausbaus der erneuerbaren Energien zur Stromerzeugung als zentrales Element für Klimaschutz/ Umweltschutz/ nachhaltige Entwicklung (…)

Erinnert sich noch jemand? Es ging damals vorrangig darum die Erde vor einem unmittelbar drohenden katastrophalen Klimawandel zu retten. Die Tatsache, dass dieser zentrale Aspekt in der aktuellen Debatte um das EEG so gut wie keine Rolle mehr zu spielen scheint, spricht für sich schon Bände. Das Thema Klimaschutz ist in der Politik, in den Medien und auch in der Gesellschaft höchstens noch eine Randerscheinung. Wobei zwei Faktoren eine Rolle spielen.
Der erste ist, dass nach über zehn Jahren medialen Dauerfeuers das Interesse am Klimawandel in der Bevölkerung und Medien deutlich nachgelassen hat. (Info hier und hier) Eine Art Katastrophenmüdigkeit ist eingetreten.
Und der zweite und wohl entscheidende Faktor ist der Umstand, dass unser Planet sich, für die meisten Menschen offensichtlich, seit mehr als zehn Jahren beharrlich weigert die prophezeite Erwärmung zu zeigen. Eine Wahrnehmung, die von den Messdaten gestützt wird. Gerade heute wird berichtet, dass die globale Erwärmung nach Daten des britischen Met Office seit 16 Jahren zum Erliegen gekommen ist. Dieser Zeitraum ist inzwischen genauso lang, wie der der Erwärmung vorher.
Die Entwicklung um den Niedergang der globalen Erwärmung als Schreckgespenst kann uns einen Hinweis darauf geben, was dem Mantra “Die Erneuerbaren helfen, langfristig die Strompreise niedrig zu halten” droht. Denn das ist, wenn man die Fünf oben gezeigten Punkte liest, der zentrale Aspekt, auf den die Grünstrombranche jetzt hinaus will. Der Strom aus “Erneuerbaren” komme uns langfristig günstiger als ein Festhalten an fossilen Brennstoffen. Warum sonst sollte sich Deutschland schließlich auf ein so gewagtes Experiment wie die Energiewende einlassen, wenn die dadurch zu erreichenden Emissionsminderungen im weltweiten Vergleich absolut unbedeutend sind?
Mit der jetzt bekannten Erhöhung der EEG-Umlagevon 3,59 auf 5,3 Cent pro Kilowattstunde (zuzüglich MWst sind das 6,3 ct/kWh Anm. M.L.) wird der Glaube an den Kostensenker Grünstrom einen ganz empfindlichen Dämpfer hinnehmen müssen. Eventuell reicht dieser Preisschock sogar aus, um in Politik, Medien und Bevölkerung ein grundsätzliches Umdenken einzuleiten. Eine Abkehr von dem bisher als unumstößlich geltenden Glauben, dass das Heil Deutschlands in der Zukunft einzig in den “Erneuerbaren Energien” zu suchen wäre.
Quentin Quencher;  zuerst erschienen auf Science Sceptical

ÄHNLICHE BEITRÄGE :

•    Die Energiewende ist schon gescheitert;  hier als Buch zu beziehen
•    Der EEG-Wahnsinn
•    Wie der Fraunhofer Direktor in seinem Ferienhaus in Kalifornien Energie spart




Erneut offiziell bestätigt: Globale Erwärmung hörte vor 16 Jahren auf!

Neuen, während der vorigen Woche veröffentlichten, Daten zufolge, hat die Welt vor fast 16 Jahren aufgehört, sich weiter zu erwärmen.
Die Angaben, die unter Klimawissenschaftlern eine Debatte ausgelöst haben, enthüllen, dass es von Anfang 1997 bis August 2012 keinen nennenswerten Anstieg der globalen Temperaturen gegeben hat.
Dies bedeutet, dass das ‚Plateau’ oder die ‚Pause’ bereits genauso lange gedauert hat wie die vorhergehende Periode, während der die Temperaturen gestiegen sind, also von 1980 bis 1996. Davor waren die Temperaturen stabil oder sind etwa 40 Jahre lang leicht zurückgegangen.
Die neuen Daten, gesammelt von mehr als 3000 Messpunkten zu Land und zu Wasser, wurden in aller Stille im Internet veröffentlicht, ohne Medienfanfaren, und bis heute hat niemand davon berichtet.
Dies steht in scharfem Kontrast zur vorhergehenden Veröffentlichung von Zahlen vor sechs Monaten, die nur bis Ende 2010 gingen – einem sehr warmen Jahr.
Das Ende des Datensatzes damals bedeutet, dass man seit 1997 einen leichten Erwärmungstrend zeigen kann, aber im Jahr 2011 und in den ersten Monaten 2012 war es viel kälter. Folglich ist dieser Trend beseitigt worden.
Einige Klimawissenschaftler wie Phil Jones, Direktor der CRU an der University of East Anglia, haben die Bedeutung des Plateaus klein geredet mit der Begründung, dass 15 oder 16 Jahre eine zu kurze Periode seien, um daraus Schlussfolgerungen zu ziehen.
Andere widersprachen. Professor Judith Curry, Leiterin des Climate Science Department an der amerikanischen Eliteuniversität Georgia Tech, sagte der Mail on Sunday, dass es ganz klar sei, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.
Selbst Phil Jones räumte ein, dass er und seine Kollegen den Einfluss der ‚natürlichen Variabilität’ nicht verstünden – Faktoren wie langzeitliche Zyklen der Wassertemperatur und Änderungen der Sonnenstrahlung. Allerdings sagte er auch, dass er immer noch davon überzeugt sei, dass die laufende Dekade signifikant wärmer ausfallen werde als die beiden zuvor.
 
Uneinigkeit: Professor Phil Jones (links) von der University of East Anglia, bestritt die Bedeutung des Plateaus. Professor Judith Curry (rechts) von der Georgia Tech University hebt die Bedeutung hervor und sagt, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.
Der regulär erstellte Datensatz der globalen Temperatur hat die Bezeichnung Hadcrut 4, da er gemeinsam vom Hadley Centre des Met. Office und der CRU von Phil Jones veröffentlicht wird.
Seit 1880, dem Beginn der weltweiten Industrialisierung und dem Beginn der Datensammlung im globalen Maßstab hat sich die Welt um 0,75°C erwärmt.
Einige Wissenschaftler haben behauptet, dass diese Erwärmungsrate ohne drastische Einschnitte bei den Kohlendioxid-Emissionen erheblich zunehmen wird, was zu einer katastrophalen weiteren Erwärmung bis zu 5°C bis zum Ende dieses Jahrhunderts führen kann.
Die neuen Zahlen wurden zu der Zeit veröffentlicht, an der die Regierung klarstellte, dass es ihre eigenen Kohlendioxid-Verordnungen ‚verbiegen’ und neue Kraftwerke bauen werde, um drohenden Stromausfällen zu begegnen.
Auf der Konferenz der Conservative Party in der vorigen Woche hat der neue Energieminister John Hayes versprochen, dass ‚die hoch fliegenden Theorien von bourgoisen Linksakademikern nicht die Interessen der normalen Leute außer Acht lassen dürfen, die Treibstoff zum Heizen, sowie für Licht und Transporte brauchen – Energiepolitik für viele, nicht für wenige, kann man sagen – Ein Versprechen, dass die Wut grüner Aktivisten erregt hat, die Reduktionen der riesigen Subventionen für Windparks befürchten.
Betrügerische Wissenschaft kommt uns sehr teuer zu stehen
Hier folgen drei nicht so triviale Fragen, die Sie nicht im nächsten Quiz am Stammtisch finden werden. Erstens, um wie viel ist es auf der Welt wärmer geworden a) seit 1880 und b) seit 1997? Und was hat das mit Ihrer immer stärker steigenden Stromrechnung zu tun?
Die Antworten auf die ersten beiden Fragen könnten für Sie überraschend sein.

Seit 1880, dem Beginn fast weltweiter zuverlässiger Temperaturaufzeichnungen hat sich die Welt um etwa 0,75°C erwärmt.

Seit Anfang 1997 bis August 2012 ergibt sich jedoch aus den in der vorigen Woche veröffentlichten Daten ein Trend bei Null: Der Trend aus mehr als 3000 Stationen weltweit ist flach.

Überraschend: Die Nachricht, dass es auf der Welt seit 16 Jahren nicht mehr warmer geworden ist, kommt für Viele als eine Art Schock.
Nicht dass davon in den Medien in irgendeiner Form berichtet worden wäre, die sonst eifrig mit Klimadingen bei der Sache sind. Die Zahlen wurden ohne Aufhebens online gestellt, ohne begleitende Presseerklärung – anders als noch vor sechs Monaten, als sich noch ein leichter Erwärmungstrend gezeigt hat.
Die Antwort auf die dritte Frage ist vielleicht die Vertrauteste.

Ihre Rechnungen steigen, zumindest teilweise, wegen der ‚grünen’ Subventionen für die Industrie der erneuerbaren Energie, vor allem Wind.

Diese werden den normalen Haushalt etwa 100 Pfund in diesem Jahr kosten. Dieser Betrag dürfte stetig weiter steigen – und das, obwohl er nur aus einem einzigen Grund eingeführt worden ist:

wegen der weit verbreiteten Überzeugung, die von Politikern aller Couleur geteilt und schon den Grundschülern vermittelt wird, dass sich ohne drastische Einschnitte zur Reduktion von Kohlendioxid-Emissionen die globale Erwärmung mit Sicherheit bald erheblich beschleunigen und bis zum Ende dieses Jahrhunderts zu einer Katastrophe führen wird – könnte die Temperatur doch dann bis zu 5 Grad höher liegen.

Daher die Bedeutung der Antworten auf die ersten beiden Fragen. Die globale Industrialisierung während der letzten 130 Jahre hat nur einen relativ kleinen Unterschied gebracht.
Und für das durch das Parlament gepeitschte Gesetz, den CO2-Ausstoss des Landes bis zum Jahr 2050 um 80 Prozent zu senken, einem Projekt, dass Hunderte Milliarden kosten wird, ist die Nachricht von der seit 16 Jahren fehlenden Erwärmung so etwas wie ein Schock.
Damit stellt sich eine fundamentale Herausforderung der Hypothesen, die jedem Aspekt der Klimaänderungs- und Energiepolitik zugrunde liegen.
Dieses Plateau’ beim Temperaturanstieg bedeutet nicht, dass die globale Erwärmung an irgendeinem Zeitpunkt wieder einsetzen wird.

Abbildung: Die globale Erwärmung soll zum Teil durch das CO2-emittierende Verbrennen fossiler Treibstoffe verursacht worden sein. Diese Bild zeigt den Wrasen aus den Kühltürmen eines Kraftwerks. In den Medien oft und gern mit Rauch (die dünnen Rauchfahnen) aus den Schornsteinen verwechselt.
Aber einer zunehmenden Zahl von Klimawissenschaftlern zufolge zeigt es eher, dass die Computermodelle, die seit Jahren eine fortwährenden Untergang vorhergesagt haben und vom Met. Office und dem IPCC verwendet worden waren, falsch sind, und dass das Klima viel komplexer ist als die Modelle annehmen.
„Die neuen Daten bestätigen die Existenz einer Pause bei der globalen Erwärmung”, hat mir Professorin Judith Curry, Vorsitzende der School of Earth and Atmospheric Science at America’s Georgia Tech University gestern gesagt. Und weiter:
„Die Klimamodelle sind sehr komplex, aber sie sind nicht perfekt und unvollständig. Die natürliche Variabilität (der Einfluss von Faktoren wie langzeitlicher Temperaturzyklen in den Ozeanen und der Strahlungsfluss der Sonne) hatten erwiesenermaßen während der letzten zwei Dekaden eine Größenordnung, die den Treibhauseffekt übertrifft.
Es wird immer offensichtlicher, dass unser Beitrag zur Erwärmung seit 1980 sowie zukünftige Projektionen der Klimaänderung ein Überdenken der internen natürlichen Variabilität als Faktor von erheblicher Wichtigkeit erfordert“.
Von Professor Phil Jones, der sich vor drei Jahren im Zentrum des ClimateGate-Skandals wiederfand, wird normalerweise nicht erwartet, dass er ihr zustimmt. In zwei wichtigen Punkten hat er es aber doch getan.
Die Daten legen in der Tat ein Plateau nahe, räumte er ein, und ohne ein wesentliches El Nino-Ereignis – eine plötzliche dramatische Erwärmung des Südpazifik, welches unvorhersagbar auftritt und immer einen immensen Einfluss auf das globale Wetter hat – „könnte das auch noch eine Weile so weitergehen“.
Wie Prof. Curry räumt auch Prof. Jones des Weiteren ein, dass die Klimamodelle nicht perfekt waren: „Wir verstehen nicht vollständig, wie man Dinge wie Änderungen in den Ozeanen einbringt, und weil wir das nicht völlig verstehen, könnte man jetzt sagen, dass die natürliche Variabilität derzeit die Erwärmung unterdrückt. Wir wissen nicht, was die natürliche Variabilität macht“.
Und trotzdem besteht er darauf, dass 15 oder 16 Jahre keine signifikante Periode sind: Pausen derartiger Länge waren immer erwartet worden.
Dabei hat er schon im Jahr 2009 in einer durch ClimateGate bekannt gewordenen E-Mail an einen Kollegen gesagt: „Das Plateau, das sich bereits abzeichnet und von Wissenschaftlern diskutiert wird – unter dem Strich: der ‚Nicht-aufwärts-Trend’ muss insgesamt 15 Jahre andauern, bevor wir uns Sorgen machen“.
Aber obwohl dieser Zeitpunkt jetzt vorüber ist, hat er gesagt, dass er seine Meinung über die bedrohlichen Vorhersagen der Modelle nicht geändert hat: „Ich glaube immer noch, dass die gegenwärtige Dekade um 0,17 Grad wärmer ausfallen wird als die vorige, die wärmer war als die neunziger Jahre“.
Nur wenn das nicht der Fall sein sollte, würde er anfangen, sich ernstlich zu fragen, ob nicht irgendetwas noch Ausgeprägteres vor sich geht. Mit anderen Worten, aus der Periode von 15 Jahren, nach der er sich Sorgen machen würde, sind inzwischen 20 Jahre geworden.
Inzwischen ließen seine Kollegen am Met. Office nicht locker. Ein Sprecher sagte: „Die Wahl eines Start- oder Endpunktes im Kurzfristbereich kann sehr irreführend sein. Klimaänderung kann man nur aus multidekadischen Zeiträumen wegen der inhärenten Variabilität des Klimasystems ableiten“.
Er sagte, dass ein Andauern des Plateaus länger als 15 Jahre ‚unwahrscheinlich’ sei. Gefragt nach einer Vorhersage des Met. Office aus dem Jahr 2009 – dass drei von fünf aufeinander folgenden Jahren einen neuen Welttemperaturrekord erreichen würden – gab er keinen Kommentar. Da es keinerlei Anzeichen für einen starken El Nino im nächsten Jahr gibt, sind die Aussichten, dass dies so kommt, gering.
Warum all das von Belang ist, sollte offensichtlich sein. Jedes Quartal haben die Statistiken zur Wirtschaft und Modellaussagen zur zukünftigen Entwicklung massive Auswirkungen auf unser Leben. Sie lösen eine ganze Reihe politischer Reaktionen von der Bank of England und dem Schatzministerium aus, ebenso wie Myriaden von Entscheidungen durch private Industrien.
Und das, obwohl es seit dem Einbruch im Jahr 2008 offensichtlich geworden ist, dass sowohl die Statistiken als auch die Modellierung extrem unzuverlässig sind. Darum herum die Zukunft zu planen ist etwa genauso sinnvoll wie die Auswahl eines Hochzeitstermins drei Monate im Voraus nur aufgrund einer Wettervorhersage.
Nur wenige Menschen würden so dumm sein. Aber Entscheidungen mit weitaus größerer und teurerer Bedeutung aufgrund dieser Ergebnisse wurden und werden immer noch auf der Basis von Klimavorhersagen getroffen, nicht für drei Monate im Voraus, sondern für das ganze kommende Jahrhundert – und das trotz der Tatsache, dass Phil Jones und seine Kollegen jetzt zugeben, dass sie die Rolle der ‚natürlichen Variabilität’ nicht verstehen.
Das Deprimierendste an dieser Debatte ist, dass jeder, der das alarmistische Untergangsszenario in Frage stellt, automatisch als ‚Klimaleugner’ tituliert und angeklagt wird, die Zukunft der Menschheit aufs Spiel zu setzen.
Also nochmals zur Klarstellung: Ja, globale Erwärmung ist real und zumindest teilweise auf das durch fossile Treibstoffe emittierten CO2 zurückzuführen. Aber die beweise beginnen zu zeigen, dass sie viel langsamer vonstatten geht als die Katastrophisten behauptet haben – eine Schlussfolgerung mit enormen politischen Implikationen.
von David Rose;  das Original ist in der Daily Mail UK erschienen
Bei WUWT finden sich noch folgende Zusatzbemerkungen:
Betrachtet man die Bedeutung der Periode seit 1997, sollte man sich daran erinnern, dass Dr. Ben Santer behauptet hat, dass die erforderliche Periode 17 Jahre beträgt:
http://wattsupwiththat.com/2011/11/17/ben-santers-17-year-itch/
Sie finden, dass troposphärische Temperaturaufzeichnungen mindestens 17 Jahre lang sein müssen, um zwischen internem Klimarauschen und dem Signal von anthropogen verursachten Änderungen der chemischen Zusammensetzung der Atmosphäre zu unterscheiden.
Professor Richard Lindzen am MIT hat Ähnliches in einem Gastbeitrag auf WUWT geschrieben:

‚Es gab seit 1997 keinen Erwärmungstrend mehr und keine statistisch signifikante Erwärmung seit 1995’.

Bob Tisdale hat einen 17- und einen 30-Jahre-Trend verglichen hier.
Hier findet man den Datensatz von HADCRUT4.
Link: http://wattsupwiththat.com/2012/10/13/report-global-warming-stopped-16-years-ago/
Übersetzt von Chris Frey EIKE

Update 16.10.12 15:46 Uhr

Das Metoffice hat sich jetzt zu diesem Vorgang geäußert. Details samt Kommentaren (nur in Englisch) hier