Lächerliche Studie behauptet: Globale Erwärmung der letzten 25 Jahre mit einer Gewissheit von 99,999% vom Menschen verursacht

[*Das ist so aus dem Original entnommen. Ich weiß nicht, ob Watts hier wirklich Sks-Reichsführer im deutschen Original schreiben wollte. Anm. d. Übers.]
Bei Hockey Schtick heißt es: Eine neue, in einem Journal namens „Climate Risk Management“ veröffentlichte Studie behauptet einen lächerlichen Grad an „Sicherheit"von 99.999%, dass die globale Erwärmung der letzten 25 Jahre vom Menschen verursacht ist. Die Behauptung wurde aufgestellt auf der Grundlage, dass Klimamodelle schon jetzt mit Vertrauensniveaus von 98+% falsifiziert sind (hier).
Die Autoren schreiben:
Die Chance, eine ununterbrochene Folge von 304 Monaten (25,3 Jahre; unsere Analyse erstreckt sich bis Juni 2010) mit Temperaturen zu beobachten, deren mittlere Temperatur durchweg über dem Mittel des 20. Jahrhunderts liegt, beträgt eins zu 100.000.
Unter den fundamentalen Problemen dieser Behauptung (die im Grunde die falsifizierte behauptete Zuordnung mit einer Sicherheit von 95% auf Steroide ist) sind Folgende:
Es gibt keinen statistischen Unterschied zwischen der Erwärmungsrate während der 27 Jahre von 1917 bis 1944 und den 25 Jahren von 1975/76 bis 2000:

Klimamodelle konnten nicht die beobachtete Erwärmung zwischen 1910 und 1940 simulieren, die zu 99,999% natürlichen Ursprungs war (hier).
Wenn sie nicht in der Lage waren, die Änderung zu Beginn des 20. Jahrhunderts richtig zuzuordnen, schließt das meiner Ansicht nach jede hoch vertrauenswürdige Zuordnung der Änderung um Ende des 20. Jahrhunderts aus. – Judith Curry
Die vom IPCC behauptete Zuordnung ist wie diese neue Studie in keiner Weise konsistent mit der Unsicherheit bzgl. der Klimasensitivität (hier).
Die Klimamodelle sind überhaupt nicht in der Lage, dem Ziel einer Erkennung und Zuordnung der Klimaänderung im dekadischen bis multidekadischen Zeitscale gerecht zu werden. – Judith Curry (hier).
Eine statistisch signifikante globale Erwärmung hörte vor 19 Jahren auf, und in der Troposphäre (von der die Modelle behaupten, dass sie sich rascher erwärmt als die bodennahen Luftschichten) hörte sie vor 16 bis 26 Jahren auf (hier, auf Deutsch beim EIKE hier).
Über 40 Entschuldigungen für den „Stillstand“ der Erwärmung seit 18 bis 19 Jahren (hier) zeigen, dass die natürliche Klimavariabilität weitaus größer ist als es die Klimamodelle simulieren. Sie sind geeignet, jeden Klimaeinfluss durch CO2 zu marginalisieren.
Vieles der Erwärmung während der letzten 25 Jahre könnte künstlichen Ursprungs sein, und zwar infolge städtischer Wärmeinseleffekte und einer extensiven Adjustierung von Temperaturaufzeichnungen nach oben lange nach dem Erkennen jener Tatsache (hier).
Die Studie führt Klimamodelle an, die bereits mit einem Vertrauensniveau über 98% falsifiziert sind (hier). Folglich sind die aus diesen Modellen abgeleiteten Annahmen und Schlussfolgerungen unsinnig.
Die Modelle haben auch nicht den „Stillstand“ der globalen Erwärmung von 18 bis 19 Jahren vorhergesagt (hier), sind also folglich nicht geeignet für die Bestimmung, ob der Klimawandel natürliche oder anthropogene Ursachen hat.
Die Klimamodelle sind auch unfähig, natürliche Erwärmungen in vorangegangenen Zwischeneiszeiten zu simulieren, in denen es wärmer war als heute (hier). Das ist ein weiterer Grund, sie nicht heranzuziehen, um auszuschließen, dass vergangenen 25 Jahre mit Erwärmung unnatürlich oder vom Menschen verursacht sind.
„Warum ist der Zeitraum 1940 bis 1970 signifikant wärmer als, sagen wir, der Zeitraum 1880 bis 1910? Ist es die Sonne? Ist es eine längere Ozean-Oszillation? Könnte der gleiche Prozess, der zur Erwärmung Anfang des 20. Jahrhunderts geführt hatte, nicht auch zur Erwärmung zum Ende des 20. Jahrhunderts beigetragen haben? Wir wissen nicht nur keine Antwort auf diese Fragen, sondern es scheint sie auch niemand gestellt zu haben!“ – Judith Curry
Außerdem simulieren die Klimamodelle nicht angemessen Methoden der Verstärkung solarer Schwankungen, als da wären Ozean-Oszillationen, Konvektion, Wolken, atmosphärische Zirkulation, Schwerewellen usw. (hier). Folglich können sie nicht herangezogen werden, um diese natürlichen Faktoren als potentielle Gründe der Erwärmung auszuschließen.
Das in der Studie bemühte Modell vermutet nur, dass die Gesamt-Sonneneinstrahlung den solaren Klimaantrieb angemessen beschreibt. Sie ignoriert große Änderungen im solaren Spektrum und solare Verstärkungsmechanismen. Außerdem erklärt ein einfaches Integral der Sonnenaktivität (hier) den größten Teil der bekannten Klimaänderungen während der letzten 400 Jahre.
Folglich ist diese Studie mit einer Sicherheit von 99,999% nicht einmal falsch.

Abbildung: Vermutete Klimamodell-Antriebe für CO2, Gesamt-Sonneneinstrahlung, Southern Oscillation Index SOI und vulkanische Aktivität.


Die Studie steht hier.
Link: http://wattsupwiththat.com/2014/09/03/laughable-new-paper-claims-99-999-certainty-global-warming-over-past-25-years-is-man-made/
Übersetzt von Chris Frey EIKE




Atom-Müll als Energiequelle: Russland baut ökologische Atomreaktoren

Der Link zum Originalartikel hier.
Während in Deutschland die Energiewende in den Köpfen nahezu abgeschlossen ist, werden knapp 2.000 Kilometer östlich von Moskau neue Ideen mit Atomstrom umgesetzt. Vor zwei Wochen wurde der Reaktor mit der Bezeichnung BN-800 erstmals kritisch. Das bedeutet aber keinen Unfall, sondern heißt im Fachjargon lediglich, dass die Kettenreaktion erreicht wurde. Der umweltfreundliche Reaktor ist also bereits aktiv. Auf 100% Leistung fährt er allerdings noch nicht.
Das soll Stück für Stück geschehen. Parallel werden Tests durchgeführt. Laut Plan ist der komplette Prozess im Oktober abgeschlossen und dann soll der BN-800 seine maximale Stromerzeugung erreicht haben. 2015 wird er voraussichtlich ans Netz angeschlossen. Auch eine Form von Energiewende, über die die deutschen Medien gemeinsam schweigen.
Allen voran Bundeskanzlerin Merkel hat hierzulande die Variante gewählt, mit der sie die meisten Stimmen bekommt. Deshalb lautet in Deutschland die Devise: weg vom Atomstrom. Das haben die Energieversorger RWE und E.ON teuer zu spüren bekommen. Trotz Milliardengewinnen sind die Aktien von ihrem Allzeithoch weit entfernt. Ökostrom ist nicht nur Wahlprogramm, sondern hat natürlich auch viele Vorteile.
Egal ob Solaranlagen oder Windkraftwerke – Strom kann überall generiert werden und sollte inzwischen auch ökologisch vertretbar sein. Fukushima ist dank japanischer Geheimhaltungspolitik relativ harmlos dargestellt worden, auch wenn das Ausmaß sicher extremer und gefährlicher ist, als es die Regierungssprecher kommunizieren. Dennoch, der Unfall im Kernkraftwerk an der japanischen Ostküste durch die Tsunami im März 2011 hat gravierende Folgen. Wenngleich es in Europa primär die Energiepolitik betrifft.
Selbstverständlich sind Solaranlagen sicherer als Kernkraftwerke. Darüber soll die neue Atomtechnologie in Russland gar nicht hinwegtäuschen. Entscheidend ist allerdings, dass der BN-800 keinen gefährlichen Atommüll produziert. Dies war auch eins der wichtigen Argumente, warum die Energiewende in Deutschland vollzogen wurde. Wenn sich Deutschland und Frankreich nicht einigen können, wo der radioaktive Sondermüll gelagert werden muss, ist es wohl auch besser, erst gar keinen zu produzieren.
Mit diesem Hintergedanken wurde das neue Konzept der Kernreaktoren entwickelt. Diese sogenannten Schnellreaktoren haben sogar noch einen friedlichen Nebeneffekt. Sie benötigen als Brennstoff Uran und Plutonium. Letzteres kommt aus russischen Atomwaffen. Diese müssen sowieso reduziert werden, weil sich die USA und Russland darauf geeinigt haben. Atomare Sprengkörper werden recycelt und daraus Strom gewonnen. Beeindruckend, wie elegant Russland Abrüstung mit Energiegewinnung kombiniert.
Der Schnellreaktor in Belojarsk ist der bislang stärkste seiner Bauart. 789 Megawatt Nettoleistung sind das Ziel, wenn er in rund drei Monaten auf Maximallast arbeitet. Doch diesen Rekord wird der BN-800 bestimmt nicht lange halten. Derzeit sind schon neue Projekte geplant. Weitere Schnellreaktoren sollen nächstes Jahr schon gebaut werden. Unter anderem einer davon ebenfalls in Belojarsk. Der Nachfolger heißt dann BN-1200 und wird laut aktueller Planung mit 1130 Megawatt Nettoleistung 2020 mit dem Stromnetz synchronisiert.
Russland macht mobil für sauberen Atomstrom und Abrüstung der Nuklearwaffen – und das mit hohem Wirkungsgrad. Denn die Konkurrenz zum Schnellreaktor, sogenannte Leichtwasserreaktoren, können üblicherweise nur ein bis zwei Prozent des Brennstoffs verwenden. Baureihen ähnlich dem BN-800 verbrauchen dabei weit mehr als die Hälfte des Materials. Dazu kommt natürlich noch ein Faktor der gar nicht deutlich genug betont werden kann: Abfälle aus Leichtwasserreaktoren können nach einer Wiederaufbereitung in Schnellreaktoren als Brennstoff genutzt werden. Endlager ade.
Sollte Russland mit dieser revolutionären Methode tatsächlich großflächig neue Wege gehen, könnte ja sogar die leise Hoffnung bestehen, dass unsere heimischen Endlager geleert werden. Für unseren Atommüll müsste Russland sicher nichts bezahlen – im Gegenteil. Also ist gleichzeitig ein neues Geschäftsmodell entstanden, wenn Atomabfälle recycelt werden können. Denn der Besitzer des Atommülls ist garantiert froh, diesen loszuwerden und wird dafür auch etwas Geld in die Hand nehmen. Russland generiert damit also Atomstrom ohne Abfall und verdient sogar noch am Recycling.
Dieses Gedankenspiel ist zwar noch nicht Realität, aber gar nicht einmal so abwegig. Schließlich orientiert sich Deutschland immer mehr an alternativen Energiequellen. Da ist es nur noch ein kleiner Schritt, sich vom Altlager zu trennen – vor allem, wenn es sogar eine passende Recyclinganlage gibt. Dazu müsste die neue Technologie aber auch in Massenmedien erscheinen. Bislang halten sich diese in Deutschland aber noch bedeckt. Vielleicht gibt es ja eine kleine Randnotiz, wenn 2015 der BN-800 an das Stromnetz angeschlossen wird und den Russen damit saubere Kernenergie liefert.

Unsere ergänzenden Kommentare zum D-W-N Artikel

1. Die D-W-N sagt: "Ökostrom ist nicht nur Wahlprogramm, sondern hat natürlich auch viele Vorteile. Egal ob Solaranlagen oder Windkraftwerke – Strom kann überall generiert werden und sollte inzwischen auch ökologisch vertretbar sein."
Wir kennen KEINE Vorteile von Ökostrom, regelmäßig berichten die EIKE-News über die Nachteile von Ökostrom und belegen dies mit den technischen und wirtschaftlichen Fakten. Ökologisch vertretbar ist Ökostrom schon gar nicht. Jeder Anrainer eines Windrades, der nicht gerade von den üppigen Bodenverpachtungserträgen für Windradstandorte profitiert, wird es bestätigen – die getöteten Fledermäuse und Greifvögel können es leider nicht mehr. Das "Strom kann überall generiert werden" trifft weder zu, noch wäre es ein Vorteil. Standorte für Windräder sind nur in windreichen Gegenden brauchbar, zum Beispiel Offshore, also keineswegs "überall". Und dies erfordert dann kostspiele Stromleitungen.
2. Die D-W-N sagt: "Fukushima ist dank japanischer Geheimhaltungspolitik relativ harmlos dargestellt worden, auch wenn das Ausmaß sicher extremer und gefährlicher ist, als es die Regierungssprecher kommunizieren".
"relativ harmlos dargestellt worden" darf als ein wenig absurd gelten, wenn man an die deutsche Hysterie nach diesem Unfall denkt. Es ist inzwischen bekannt, dass Fukushima ein Industrieunfall war, dessen nunmehr gut dokumentierten Auswirkungen relativ begrenzt waren. Insbesondere ist durch den Kernkraftwerksunfall keine einzige Person durch Strahlenschäden ums Leben gekommen. Jeder Absturz eines größeren Verkehrsflugzeugs fordert weit mehr direkte Todesopfer als Tschernobyl und Fukushima zusammen (hier, hier, hier, hier, hier, hier, hier, hier). Der Schaden von Fukushima war vorwiegend politischer Art.
3. Die D-W-N sagt bezüglich des russischen Reaktors: "Dazu müsste die neue Technologie aber auch in Massenmedien erscheinen. Bislang halten sich diese in Deutschland aber noch bedeckt."
Wir teilen diese Hoffnung der D-W-N. Sie wird aber wohl eine Illusion bleiben. Deutschland ist fest im Griff einer grün-roten Klique von Ökoideologen, deren oft schon faschistoiden Züge auch mit bestem Willen nicht mehr übersehen werden können. Diese Leute dominieren längst den überwiegenden Teil der deutschen Medien und das öffentlich-rechtliche TV und den Rundfunk. Übertrieben? Die in ihrer Propaganda mit der ehemaligen DDR vergleichbaren Nachrichten in ARD und ZDF bieten ausreichendes Anschauungsmaterial für diese Einschätzung (Beispiel Originalton der ARD-Nachrichten nach Fukushima: "Ein Beben der Stärke 9 hatte den Nordosten des Landes erschüttert und eine Tsunamiwelle ausgelöst. In der Folge kam es zu einem Reaktorunfall im Kernkraftwerk Fukushima. Fast 16.000 Menschen starben. Tausende gelten noch als vermisst." (hier). Wer diese irreführende Formulierung als unbeabsichtigten Lapsus abtut, dem ist nicht mehr zu helfen. Uns sind nämlich bis heute keine sachlichen Berichterstattungen in ARD oder ZDF über Fukushima und Tschernobyl bekannt).
Aktuell muss man dagegen tatenlos zusehen, wie deutsche Wälder, Landschaften und geschützte Flugtiere (Raubvögel, Fledermäuse) mit wirtschaftlich völlig sinnlosen Windturbinen zerstört werden (hier, hier, hier, hier, hier, hier, hier, hier, hier). Man fragt sich, wo der Widerstand mündiger Bürger und unserer großen Medien gegen diese Verbrechen gegen eine noch weitgehend intakte Naturumgebung bleiben. Die Nutzung der Kernenergie als der, gemessen an Todesopfern pro TWh erzeugter elektrischer Energie, bei weitem sichersten und umweltschonendsten Form der elektrischen Energieerzeugung (hier) wird dagegen mit einer Konsequenz tabuisiert und bekämpft, die nur noch mit dem religiösen Eifer der Religionskriege im 17. Jahrhundert vergleichbar ist. Die Haltung der Kirchen zu den Themen "Klimaschutz", "Energiewende" und "Kernkraftwerke" bestätigt es.
Wenn es nach den grünen Ökokriegern geht, kommt als nächstes die Kohleverstromung auf den Index, unterstützt durch vermutlich wieder geduldete, gewalttätige Demonstrationen an der deutsch-polnischen Grenze. Wenn man diese Entwicklung von einem properierenden Industrieland hin zum kompletten Wahnsinn weiter widerstandslos zulässt, wird unser Land endgültig den Weg der Deindustrialisierung beschritten haben.
Einen Lichtblick gibt es inzwischen: die jüngste Landtagswahl in Sachsen hat gezeigt, dass intelligente Bürger (Sachsen als Sieger der PISA Studie!) von den Grünen und von den Braunen (NPD) die Nase voll haben. Wir hoffen, dass das  sächsische Beispiel Schule macht und diese beiden Parteien zukünftig auch in allen anderen Landtagen marginalisiert werden. Es ist höchste Zeit, dass die großen Volksparteien aufwachen und beginnen ihre Reihen gegen Undemokratisches, wie es etwa Schellnhubers "große Transformation" ist, zu schließen. Fortzufahren, verängstigt das Energiewendeuntergangs- und  Naturzerstörungsprogramm der Grünen weiterhin zur eigenen Sache zu machen, ist nicht zielstellend. Die Frage lautet: Welcher maßgebende Politiker findet endlich den Mut die Irrsinnsaktionen "Energiewende" und "Klimaschutz" in die Mülltonne der Geschichte zu treten und wieder technisch-wirtschaftliche Vernunft und echten Naturschutz in unserem Land zu etablieren?
Trotz unserer Kritik an einigen wenigen Punkten des D-W-N Artikels begrüßen wir die Initiative und den Mut der D-W-N Redakteure angesichts der deutschen Hexenjagdstimmung gegen alles, was mit "Atom" oder "Kern" anfängt, diesen Artikel verfasst zu haben.




Der ,Deus Ex Machina‘ der Klimawissenschaft

Euripides war einer der großen antiken griechischen Tragödiendichter. Vielleicht am bekanntesten ist er durch eine Wortschöpfung geworden, die unter der Bezeichnung deus ex machina bekannt ist, was man aus dem Lateinischen übersetzen kann als „der Gott aus der Maschine“.
Merriam-Webster definiert diesen als „eine Person oder eine Sache (sei es Fiktion oder Drama), das plötzlich und unerwartet erscheint oder eingeführt wird und eine künstliche Lösung zu einem offensichtlich unlösbaren Problem präsentiert“.
Dies bringt mich zu dem kürzlich im Journal Science veröffentlichten Artikel, der erneut versucht zu erklären, warum es seit 1999 zu einem plötzlichen und unerwarteten „Stillstand der globalen Erwärmung“ gekommen war.
Für die eineinhalb Jahrzehnte lange „Verlangsamung“ der Erwärmung postulieren die Autoren Ka-Kit Tung, Atmosphärenwissenschaftler an der University of Washington, und Xianyao Chen, Ozeanograph an der Ocean University in China: „Der Hauptgrund ist Wärme, die in tiefere Schichten des Atlantik und der Südlichen Ozeane abgesunken ist, ausgelöst durch eine periodische Salinitäts-Anomalie im subpolaren Nordatlantik“.
Da haben wir den deus ex machina, den Euripides benutzt hätte, wäre er ein Klimawissenschaftler unserer Tage.
Tatsächlich haben die Alarmisten der globalen Erwärmung jetzt schon viele Jahre ängstlich gewarnt, dass sich die Erde überhitzt und dass die Menschen die Schuldigen dafür sind. Der einzige Weg, den Planeten zu retten, sagen sie übereinstimmend, besteht darin, dass die industriellen Großmächte – allen voran natürlich die USA – den fossilen Treibstoffen den Krieg erklären.
Aber die ängstlichen Warnungen, der Ruf nach Krieg gegen König Kohle und Big Oil wurden unterminiert durch die unbequeme Tatsache, dass es seit dem Jahr 1999 keine nennenswerte Erwärmung mehr gegeben hat.
Das hat sich als unlösbare Schwierigkeit für die wissenschaftliche Gemeinschaft herausgestellt, in der große Teile glauben als Teil eines wirklichen Glaubens, dass die anthropogene globale Erwärmung eine Bedrohung des Lebens auf der Erde ist, so wie wir es kennen. Sie standen in der Pflicht, irgendeine Erklärung für den unvorhergesehenen Stillstand der Erwärmung zu liefern.
Also haben die Klimawissenschaftler Emily Gosden zufolge, Energie-Redakteurin der Zeitung The Telegraph in UK, über ein Dutzend Theorien vorgeschlagen, warum sich der Planet während der letzten 15 Jahre nicht erwärmt hat, so wie es die Computermodelle vorhergesagt haben.
Hier kommen Tung und Chen mit ihrer Theorie ins Spiel, dass die vermisste Wärme irgendwie in tiefere Ozeanschichten abgesunken ist und dass diese vermeintliche „Anomalie“ – der deus ex machina – besonders salzigem Ozeanwasser zugeordnet werden kann.
Aber hier gibt es ein Problem mit der Wissenschaft, auf der die Theorie von Tung und Chen basiert – sie ist nicht vereinbar mit der vorherrschenden Ansicht ihrer Klimaforscher-Kollegen, dass die vermisste Wärme der letzten 15 Jahre eher in der Tiefsee des Pazifik anstatt im Atlantik und den Südlichen Ozeanen gespeichert ist.
Tatsächlich kam im vorigen Jahr eine Studie von Yu Kosaka und Shang-Ping Xie, Klimamodellierer am Scripps Institute of Oceanography in La Jolla, zu dem Ergebnis, dass der Stillstand der globalen Erwärmung vollständig erklärt werden konnte mit Variationen der Zyklen El Nino und La Nina während der letzten eineinhalb Jahrzehnte im tropischen Pazifik.
Das Fazit lautet, dass weder Tung und Chen noch Kosaka und Xie noch die Alarmisten der globalen Erwärmung wirklich erklären können, warum sich der Planet nicht in der Weise erwärmt hat, wie es so falsch vorhergesagt worden ist.
Vor fünf Monaten hat die NOAA einen „Klimastatus-Bericht“ veröffentlicht, in dem die Beitragenden – einschließlich der weltweit führenden Klimamodellierer – darin übereinstimmten, dass 15 Jahre oder mehr ohne globale Erwärmung bedeuten würden, dass die Untergangs-Prognosen falsch seien.
Nun hatten wir jetzt 15 Jahre lang stabile und nicht zunehmende globale Temperaturen, und doch lehnen es die Klimaänderungs-Wissenschaftler nach wie vor ab einzuräumen, dass die globale Erwärmung eben nicht die unmittelbare Bedrohung für das Leben auf dem Planeten Erde ist, wie sie uns glauben machen wollten.
Stattdessen haben sie Zuflucht genommen zum wissenschaftlichen Äquivalent des Betrugs: Sie sagen uns, dass wir weitere 15 Jahre stabiler Temperaturen erwarten können, bevor die globale Erwärmung wieder einsetzt.
Full post
Link: http://www.thegwpf.com/joseph-perkins-the-deus-ex-machina-of-climate-science/
Übersetzt von Chris Frey EIKE




Die nächste Schiefer-Revolution: Tiefkühl-Fracking

Bild rechts: Flüssiger Stickstoff wird als Fracking-Fluid getestet
Sogar wenn Umweltaktivisten Bemühungen wiederaufleben lassen, hydraulisches Brechen in dem US-Bundesstaat zu untersagen, arbeiten Petroleum-Ingenieure in Colorado daran, die Schwierigkeiten eines Prozesses zu überwinden, den man Tiefkühl-Fracking [cryogenic fracturing] nennt. Dabei wird Wasser durch extrem kalten flüssigen Stickstoff oder flüssiges Kohlendioxid ersetzt.
Das Fracking mit Wasser hat die USA zu einem der größten Energieerzeuger weltweit gemacht.
Wissenschaftler an der Colorado School of Mines in Golden hoffen, dass die ultrakalten thermalen Schocks, zu denen es kommt, wenn der flüssige Stickstoff mit Schiefergestein in Kontakt kommt, die gleichen Auswirkungen wie Wasser hat, nämlich genug Spannung im Gestein zu erzeugen, die unterirdischen Speicher von Öl und Gas zu sprengen.
Abstand nehmen von Wasser würde einiges der Umweltopposition zu Fracking beruhigen. Und weil der flüssige Stickstoff im Untergrund verdunstet, könnte Tiefkühl-Fracking größere Kanäle für Öl und Gas öffnen als Fracking auf Wasserbasis. Die Öl- und Gaserzeugung würde damit erheblich gesteigert.
„Im Wesentlichen absorbieren einige Schieferformationen sehr schnell Wasser, und die gesamte Formation schwillt an und schließt irgendwelche Kanäle“, sagte Kent Perry, Vizepräsident für Onshore-Programme bei der Research Partnership to Secure Energy for America. Diese Institution hat einen 2,6 Millionen schweren Vertrag mit dem Energieministerium für das Projekt geschlossen. „Wenn man Wasser in Schieferformationen verwendet, ist die Erholung selbst bei einer erfolgreichen Entwicklung immer noch niedrig, und das Einfangen von Wasser ist ein Teil davon“.
Drastischer Unterschied
Im Grunde funktioniert Fracking wie heißes Wasser, das man auf eine gefrorene Windschutzscheibe gießt. Es kommt zu einem scharfen Temperaturkontrast, bei dem das Glas zerspringt.
In der Praxis würden flüssiger Stickstoff oder flüssiges Kohlendioxid durch Rohre aus Stahl oder Fiberglas als Fracking-Flüssigkeit in den Untergrund gepumpt, und zwar an Stelle von Wasser, dass üblicherweise im Untergrund zusammen mit Chemikalien und Sand oder künstlichen Beimengungen den gefrackten Fels offenhalten soll.
Full story
Link: http://www.thegwpf.com/the-next-shale-revolution-cryogenic-fracturing/
Übersetzt von Chris Frey EIKE
Hinweis des Übersetzers: Bei Science Skeptical ist hier ein ausgezeichneter Artikel erschienen, in dem begründet wird, warum der Schiefer-Boom nicht so schnell zu Ende gehen dürfte. Die hier beschriebene ganz neue Technik wird sicher ein Übriges tun!




Neue Studie zum ,Stillstand‘: er beträgt 19 Jahre an der Erdoberfläche und 16 bis 26 Jahre in der unteren Troposphäre


Zu dieser Abbildung: Sie stammt (wie auch die Folgende) nicht aus der Studie von Dr. McKitrick, sondern wurde erstellt, um seinen Punkt hinsichtlich der HadCRUT4-Daten zu illustrieren, in denen der 19-jährige Stillstand auftaucht.http://www.woodfortrees.org/plot/hadcrut4gl/from:1995
Im RSS-Satelliten-Datensatz sieht das so aus:

Die Studie

McKitrick, R. (2014) HAC-Robust Measurement of the Duration of a Trendless Subsample in a Global Climate Time SeriesOpen Journal of Statistics4, 527-535. doi: 10.4236/ojs.2014.47050.
Abstract
Das IPCC hat die Aufmerksamkeit auf eine offensichtliche Abflachung der global gemittelten Temperaturen während der letzten 15 Jahre oder so gelenkt. Die Messung der Dauer des Stillstands hat Implikationen für die Berechnung, falls sich der zugrunde liegende Trend verändert hat, und für die Evaluierung von Klimamodellen. Hier zeige ich eine Methode, die Dauer des Stillstands abzuschätzen, die widerstandsfähig ist gegen unbekannte Formen der Varianzheterogenität [?] und Autokorrelation (HAC) in den Temperaturreihen und gegen die Rosinenpickerei der Endzeitpunkte.
Im speziellen Fall der globalen mittleren Temperaturen füge ich auch die Voraussetzung räumlicher Konsistenz zwischen den Hemisphären ein. Die Methode nutzt den robusten Trend-Varianz-Estimator von Vogelsang und Franses (2005), der so lange gültig ist, wie der Trend in der zugrunde liegenden Reihe stationär ist. Im Falle der hier benutzten Daten ist das der Fall. Die Anwendung der Methode zeigt, dass es inzwischen ein trendfreies Intervall von 19 Jahren Dauer gibt zum Ende der HadCRUT4-Temperaturreihen und ein solches von 16 bis 26 Jahren in der unteren Troposphäre. Mit einem einfachen AR 1-Trendmodell zeigt sich ein kürzerer Stillstand von 14 bis 20 Jahren, aber das ist wahrscheinlich unzuverlässig.

Das IPCC schätzt nicht die Dauer des Stillstands, sondern betrachtet ihn als typisch mit einer Dauer von 15 bis 20 Jahren. Während die Aufzeichnung von HadCRUT4 eindeutig zahlreiche Stillstände und Rückgänge in dem alles in allem aufwärts weisenden Trend zeigt, ist der Stillstand zum Ende von besonderem Interesse, weil die Klimamodelle während dieser Zeit kontinuierlich Erwärmung vorhergesagt haben. Seit 1990 ist der atmosphärische Kohlendioxidgehalt von 354 ppm auf einen Wert etwas unter 400 ppm gestiegen, eine Zunahme um 13%. In (1) wird berichtet, dass von den 114 Modellsimulationen während des 15-jährigen Zeitraumes von 1998 bis 2012 111 Modelle Erwärmung vorhergesagt haben. In (5) wird ein ähnlich krasses Missverhältnis in Vergleichen im Zeitscale von 20 Jahren gezeigt, wobei die meisten Modelle eine Erwärmung von 0,2°C bis 0,4°C pro Jahrzehnt vorhersagen. Folglich müssen jetzt zwei Fragen beantwortet werden: 1) Wie kann man die Dauer des Stillstands messen? 2) Dauert er inzwischen lange genug, um eine potentielle Inkonsistenz zu zeigen zwischen Beobachtungen und Modellen? In dieser Studie geht es hauptsächlich um die erste Frage.

Conclusion
Ich stelle eine belastbare Definition für die Länge des Stillstands der Erwärmung zum Ende der Datensätze an der Oberfläche und in der unteren Troposphäre zur Diskussion. Der Länge-Term MAX J ist definiert als die maximale Dauer J, für welche ein gültiges (HAC-robustes) Trend-Vertrauensintervall Null enthält für jede Unter-Datenmenge, die bei J beginnt und bei T endet. m ist ist die kürzeste interessierende Dauer. Diese Definition wurde angewendet auf Temperaturreihen von der Oberfläche und der unteren Troposphäre. Außerdem wurde die Voraussetzung eingeführt, dass die nördliche und die südliche Hemisphäre einen identischen oder größeren Wert von MAX J aufweisen müssen. In den Daten von der Oberfläche berechnen wir eine Dauer von 16 Jahren in den UAH-Reihen und 26 Jahren in der RSS-Reihe. Schätzungen von MAX J, die auf einem AR 1-Estimator basieren, sind niedriger, aber wahrscheinlich nicht korrekt, da in den Daten Autokorrelationen höherer Ordnung vorhanden sind. Alles in allem bestätigt diese Analyse den im IPCC-Bericht (1) genannten Punkt hinsichtlich der Existenz des Stillstands und sorgt für zusätzliche Präzision des Verständnisses seiner Dauer.
———————————————–
Dr. McKittrick schreibt auf seiner Website:
Ich habe die Dauer zusammengefasst zu 19 Jahren an der Oberfläche und 16 bis 26 Jahre in der unteren Troposphäre, abhängig vom verwendeten Datensatz. Der R-Code zur Generierung der Graphiken, Tabellen und Ergebnisse findet sich hier.
Die ganze Studie: http://dx.doi.org/10.4236/ojs.2014.47050
http://wattsupwiththat.com/2014/09/01/new-paper-on-the-pause-says-it-is-19-years-at-surface-and-16-26-years-at-the-lower-troposphere/
Übersetzt von Chris Frey EIKE