Das Ökostrom-Gesetz ist verfassungswidrig!

"….Das zentrale Gesetz zur Umsetzung der ökologischen Energiewende in Deutschland verstößt gegen die Verfassung. Zu diesem Schluss kommt ein Gutachten, das die Rechtsfakultät der Universität Regensburg im Auftrag des Gesamtverbandes Textil und Mode verfasst hat. In dem Gutachten, das „Welt Online“ vorliegt, stellt der Staatsrechtler Gerrit Manssen fest, dass die Kostenwälzung des Erneuerbare-Energien-Gesetzes (EEG) nach der 2010 in Kraft getretenen Novellierung eine „Sonderabgabe“ darstellt, die in allen wesentlichen Punkten mit dem früheren „Kohlepfennig“ vergleichbar ist. Der vom Stromverbraucher zu zahlende Kohlepfennig zur Subventionierung des deutschen Steinkohlebergbaus war 1994 vom Bundesverfassungsgericht verboten worden…."

Hier weiter lesen

Die FTD schreibt zum selben Thema

EnergiewendeEon warnt vor Baustopp bei Offshore-Windkraftanlagen

Der Energiekonzern macht den Netzbetreibern schwere Vorwürfe: Sie kommen mit dem Anschluss der Windparks auf See nicht hinterher, weil sie sich zu viel vorgenommen und die Probleme unterschätzt haben. Die Situation sei katastrophal und gefährde die Energiewende in Deutschland.




Fuzzy Dreieckszahlen und das IPCC

Oder wie es diese Gelehrten es ausdrücken:

Temperaturänderung (∆T) = Klimasensitivität ( λ ) mal erzwungene Änderung durch Antriebe (∆F).

Oder als Gleichung:

∆T = λ  ∆F.

Das Problem dabei ist Folgendes: Nach dreißig Jahren von Versuchen, die natürliche Welt in diese Zwangsjacke zu stecken, ist es ihnen bis heute nicht gelungen, diese Zahlen festzumachen. Meine Theorie lautet, dass die Ursache hierfür ein theoretisches Missverständnis ist. Der Fehler liegt in der Behauptung, dass Temperaturänderung gleich den Änderungen der Antriebe mal irgendeiner Konstante ist.

Bild rechts: Die unscharfe Dreieckszahl für die Anzahl der Säugetierarten [4166,  4629, 5092]wird repräsentiert durch die durchgezogene Linie. Die Spitze liegt bei der besten Schätzung, 4629. Die oberen und unteren Begrenzungen der vermuteten Anzahl der Arten variieren mit dem Wert der Zugehörigkeit [membership value]. Für einen Wert der Zugehörigkeit von 0,65 (gepunktete Linien) liegt die untere Grenze bei 4467Arten und die obere Grenze bei 4791Arten (IUCN 2000)

Was sind also unscharfe Dreieckszahlen, und wie können sie uns helfen zu verstehen, warum die Behauptungen des IPCC bedeutungslos sind?

Eine unscharfe Dreieckszahl setzt sich aus drei Schätzungen irgendwie unbekannter Variablen zusammen – die niedrigste, die höchste und die beste Schätzung. Um mit diesen ungewissen Angaben Berechnungen anzustellen, ist es nützlich, „unscharfe Mengen“ zu verwenden. Die traditionelle Mengenlehre enthält die Entscheidung, ob etwas exklusiv Teil der Menge ist oder nicht. Zum Beispiel ist ein Tier entweder lebendig oder tot. Allerdings kann für eine Anzahl von Mengen keine klare Mitgliedschaft bestimmt werden. Zum Beispiel, ist eine Person mit 55 Jahren „alt“?

Während man keine klare ja/nein-Antwort geben kann, können wir unscharfe Mengen nutzen, um die Größenordnungen dieser Art von Werten zu bestimmen. Anstelle von 0 oder 1, die die Mitgliedschaft in traditionellen Mengen festlegen, verwenden unscharfe Mengen eine Zahl zwischen 0 und 1, um eine teilweise Mitgliedschaft in der Menge zu kennzeichnen.

Unscharfe Mengen können auch verwendet werden, um Grenzen um ungewisse Werte zu ziehen. Zusätzlich zu höheren und niedrigeren Werten können diese Grenzen auch beste Schätzungen enthalten. Es ist eine Möglichkeit, Sensitivitätsanalysen durchzuführen, wenn man wenig Informationen über die tatsächlichen Fehlerquellen und die Größe der Fehler hat. Am einfachsten wäre Folgendes: Alles, was wir brauchen, sind Werte, von denen wir es für sehr unwahrscheinlich erachten, größer oder kleiner als * zu sein. Diese niedrigeren und höheren Begrenzungen plus die beste Schätzung bilden eine Dreieckszahl. Eine Dreieckszahl wird geschrieben als (niedrigster vermuteter Wert, beste Schätzung, höchster vermuteter Wert).

*Man vergleiche mit dem Original. Das steht dort wirklich so! Wenn da etwas fehlt, weiß ich nicht, was. A. d. Übers.

Zum Beispiel wird die Anzahl der Säugetierarten durch die Rote Liste der IUCN mit 4629 Arten angegeben. Allerdings ist dieser Wert bekannt dafür, ein Gegenstand geschätzter Fehler zu sein, der normalerweise mit ± 10% angegeben wird.

Diese Bandbreite von Schätzungen der Anzahl der Säugetierarten kann durch eine unscharfe Dreieckszahl repräsentiert werden. Für die Anzahl der Arten lautet diese (4166, 4629, 5092), um die unteren und oberen Grenzen ebenso wie die beste Schätzung in der Mitte zu beschreiben. Die Abbildung oben rechts zeigt die unscharfe Zahl, die die Zählung aller Säugetierarten repräsentiert.

Alle normalen mathematischen Operationen können unter Verwendung von Dreieckszahlen durchgeführt werden. Das Endergebnis der Operation zeigt den wahrscheinlichsten Wert zusammen mit den zu erwartenden maximalen und minimalen Werten. Für die Prozedur von Additionen, Subtraktionen und Multiplikationen werden der niedrigste, der beste und der höchste Wert einfach addiert, subtrahiert oder multipliziert. Nehmen wir zwei unscharfe Zahlen, die Dreieckszahl

T1 = [L1,  B1,  H1]

und die Dreieckszahl

T2 = [L2,  B2,  H2],

wobei „L“, „B“ und „H“ der niedrigste [lowest], der beste und der höchste Wert sind. Die Regeln sind Folgende:

T1 + T2  =  [L1 + L2,  B1 + B2,  H1 + H2]

T1 – T2  =  [L1 – L2,  B1 – B2,  H1 – H2]  (Nicht korrekt ausgeführt, siehe unten. Zu schnell).

T1 * T2  =  [L1 * L2,  B1 * B2,  H1 * H2]

Dieser Teil ist also einfach. Für Subtraktion und Division ist es etwas anders. Der niedrigste mögliche Wert wird die niedrige Schätzung im Zähler und die hohe Schätzung im Nenner sein, und umgekehrt für den höchsten möglichen Wert. Also sieht die Division folgendermaßen aus:

T1 / T2 = [L1 / H2,  B1 / B2,  L2 / H1]

Und für die Subtraktion so:

T1 – T2  =  [L1 – H2,  B1 – B2,  H1 – L2]

Wie können wir nun unscharfe Dreieckszahlen anwenden, um zu sehen, was das IPCC macht?

Nun, die Klimasensitivität (in °C pro W/m²) oben in der magischen Formel des IPCC besteht aus zwei Zahlen – die durch eine Verdoppelung des CO2-Gehaltes erwartete Temperaturänderung und der dadurch erwartete zunehmende Antrieb. Für jede haben wir Schätzungen der wahrscheinlichen Bandbreite der Werte.

Von der ersten Zahl, also dem Antrieb durch eine Verdoppelung des CO2-Gehaltes, sagt das IPCC, dass sich ein zusätzlicher Antrieb von 3,7 W/m² ergibt. Die Endpunkte dieses Wertes sind wahrscheinlich 3,5 für den niedrigeren und 4,1 für den höheren Wert (Hansen 2005). Dies ergibt eine Dreieckszahl von (3,5; 3,7; 4,0) W/m² für die Änderung des Antriebs durch den doppelten CO2-Gehalt.

Die zweite Zahl, die Temperaturänderung durch die Verdoppelung des CO2-Gehaltes wird vom IPCC hier als die Dreieckszahl (2,0; 3,0; 4,5) °C angegeben.

Dividiert man die Sensitivität durch Verdoppelung durch die Änderung des Antriebs durch Verdoppelung, ergibt sich ein Wert der Temperaturänderung (∆T, °C) aus einer gegebenen Änderung des Antriebs (∆F, W/m²). Dies wiederum ist ebenfalls eine Dreieckszahl, und nach den Gesetzen der Division ergibt sie sich zu:

T1 / T2 = [L1 / H2, B1 / B2, L2 / H1] = [2.0 / 4.0,   3.0 / 3.7,   4.5 / 3.5]

also eine Klimasensitivität von (0,5; 0,8; 1,28) °C Temperaturänderung für jede Änderung des Antriebs in W/m². Man beachte, dass der zentrale Wert wie erwartet der autorisierte Wert von 3°C durch Verdoppelung des CO2-Gehaltes ist.

Betrachten wir jetzt, was dies in der realen Welt bedeutet. Das IPCC vergleicht die Änderung des Antriebs seit der „vorindustriellen Zeit“, die sie mit [dem Jahr] 1750 festlegen. Die Änderung des Antriebs seit 1750, ∆F, legt das IPCC hier mit einer Zunahme um (0,6; 1,6; 2,4) W/m² fest.

Die Multiplikation der Dreieckszahl für die Änderung des Antriebs (0,6; 1,6; 2,4) W/m² mit der Dreieckszahl der Sensitivität (0,5; 0,8; 1,28) °C pro W/m² ergibt die IPCC-Schätzung der Temperaturänderung, die man seit 1750 erwarten dürfte. Natürlich ist auch das eine Dreieckszahl, die wie folgt berechnet wurde:

T1 * T2 = [L1 * L2, B1 * B2, H1 * H2] = [0.5 * 0.6,  0.8 * 1.6,  2.4 *1.28]

Die endgültige Zahl, die IPCC-Schätzung der Erwärmung seit 1750 vorhergesagt durch ihre magische Formel liegt bei einer Erwärmung von (0,3; 1,3; 3,1) °C.

Lassen Sie mich das anders ausdrücken, es ist wichtig. Ein Vierteljahrhundert lang haben die AGW-Befürworter Millionen Stunden und Millionen Dollar in Studien und Computermodelle gesteckt. Außerdem knirscht und kracht es im Gebälk des gesamten IPCC-Apparates seit nunmehr fünfzehn Jahren, und das ist das Beste, was sie uns sagen können, für all das Geld und all die Studien und all die Modelle?

Der Berg kreißte und schlussfolgerte, dass wir seit 1750 eine Erwärmung irgendwo zwischen einem Drittel Grad und drei Grad gehabt haben… Das ist wirklich ein eindrucksvolles Stück Detektivarbeit, Lou…

Im Ernst? Das ist das Beste, was sie tun können, nach dreißig Jahren Studium? Eine Erwärmung zwischen einem Drittel Grad und drei Grad? Ich kann mir keine weniger falsifizierbare Behauptung vorstellen. Jede Erwärmung lässt sich mühelos in dieses Intervall einpassen. Egal, was passiert, sie werden immer den Erfolg für sich in Anspruch nehmen. Und das ist Nachhersage, nicht einmal Vorhersage. Huch!

Ich sage noch einmal, dass das Gebiet der Klimawissenschaft mit der Übernahme der durch nichts gestützten Behauptung in die falsche Richtung abgebogen ist, nämlich dass bei einem so gewaltig komplexen System wie dem Klima eine lineare Beziehung besteht zwischen der Änderung des Inputs und der Änderung der Operationsbedingungen. Die fundamentale Gleichung des konventionellen Paradigmas, ∆T = λ ∆F; die Grundbehauptung, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, stimmt einfach nicht.

Willis Eschenbach

Link: http://wattsupwiththat.com/2012/02/07/triangular-fuzzy-numbers-and-the-ipcc/

Übersetzt von Chris Frey




The Skeptics Case*

Was die Klimawissenschaftler der Regierung sagen


Abbildung 1: Die Klimamodelle. Falls sich der CO2-Gehalt verdoppelt (was bei der gegenwärtigen Rate frühestens 2070 oder 2100 der Fall sein kann) simulieren die Klimamodelle eine Temperaturzunahme wegen dieses zusätzlichen CO2 um 1,1°C × 3 = 3,3°C. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote1sym1

Die direkte Auswirkung ist gut verstandene Physik, die auf Laborergebnissen basiert und seit über einem Jahrhundert bekannt ist. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote2sym2

Rückkopplungen treten auf wegen der verschiedenen Arten, mit denen die Erde auf den direkten Erwärmungseffekt durch das CO2 reagiert. Die dreifache Verstärkung der Rückkopplungen basiert auf der um das Jahr 1980 entstandenen Hypothese oder der Vermutung, dass mehr Erwärmung durch CO2 zu größerer Verdunstung der Ozeane führt und das dieser zusätzliche Wasserdampf wiederum zu größerer Rückhaltung von Wärme führt, weil Wasserdampf das wesentliche Treibhausgas ist. Und zusätzliche Wärme ergibt noch mehr Verdunstung, und so weiter. Diese Verstärkung berechnen alle Klimamodelle. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote3sym3

Die Klimawissenschaftler der Regierung und die Medien erzählen uns oft etwas über die direkte Auswirkung von CO2, geben aber selten zu, dass zwei Drittel der von ihnen projizierten Temperaturzunahme aus der Verstärkung durch Rückkopplungen resultiert.

Was die Skeptiker sagen


Abbildung 2: Die Sichtweise der Skeptiker. Falls sich das CO2-Niveau verdoppelt, beträgt die daraus resultierende Temperaturzunahme etwa 1,1°C × 0,5 0,6°C. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote4sym 4

Die seriösen skeptischen Wissenschaftler stimmten immer mit den Klimawissenschaftlern der Regierung über die direkten Auswirkungen des CO2 überein. Der Streit dreht sich ausschließlich um die Rückkopplungen.

Die Rückkopplungen reduzieren die direkte Auswirkung zusätzlichen CO2, und zwar grob gesagt um etwa die Hälfte. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote5sym5. Die wesentlichen Rückkopplungen gibt es durch Verdunstung, Wasserdampf und Wolken. Im Besonderen kondensiert Wasserdampf zu Wolken, daher wird zusätzlicher Wasserdampf infolge des direkten Erwärmungseffektes von CO2 zusätzliche Wolkenbildung verursachen. Wolken reflektieren das Sonnenlicht zurück ins Universum und kühlen die Erde, so dass die allgemeine Erwärmung reduziert wird.

Es gibt buchstäblich Tausende von Rückkopplungen, von denen jede den direkten Erwärmungseffekt durch das CO2 verstärkt oder abschwächt. Nahezu jedes langlebige System wird durch Rückkopplungen bestimmt, die jede Reaktion auf Störungen dämpfen. Falls ein System stattdessen auf eine Störung mit Verstärkung reagiert, wird dieses System wahrscheinlich einen Kipp-Punkt erreichen und instabil werden (wie eine elektronische Rückkopplung, wenn ein Mikrophon seinen Lautsprechern zu nahe kommt). Das Klima der Erde ist langlebig und stabil – es geriet anders als die Venus niemals in ein „Runaway-Treibhaus“ – was stark vermuten lässt, dass die Rückkopplungen die Temperaturstörungen wie etwa von zusätzlichem CO2 dämpfen.

Was die Daten sagen

Die Klimamodelle haben sich im Wesentlichen während der letzten 30 Jahre nicht verändert und zeigen in etwa die gleiche Sensitivität zusätzlichen CO2, auch dann, wenn sie mit zunehmender Rechenleistung immer detaillierter gerechnet werden können.

  • Wie gut haben die Klimamodelle die Temperatur vorhergesagt?
  • Unterstützen die Daten eher die Klimamodelle oder die skeptische Sicht?

Lufttemperatur

Eine der frühesten und wichtigsten Vorhersagen wurde vor dem US-Kongress im Jahre 1988 von Dr. James Hansen präsentiert, dem „Vater der globalen Erwärmung“:

 

Abbildung 3: Hansens Vorhersagen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6sym6 vor dem US-Kongress 1988, verglichen mit den nachfolgenden tatsächlichen Temperaturen, gemessen durch NASA-Satelliten http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote7sym7.

Hansens Klimamodell hat ganz klar künftige Temperaturanstiege übertrieben.

Im Einzelnen hat sein Modell die Entwicklung nach Szenario C vorhergesagt, falls die menschlichen CO2-Emissionen ab 1988 drastisch zurück gefahren werden, so dass das CO2-Niveau bis zum Jahr 2000 gar nicht mehr steigen würde. Aber in Wirklichkeit ist die Temperatur nicht einmal so stark gestiegen, obwohl die CO2-Emissionen erheblich zugenommen haben – was bedeuten würde, dass die Klimamodelle die Auswirkung der CO2-Emissionen erheblich überschätzen.

Eine genauere Vorhersage durch Klimamodelle wurde 1990 im ersten Zustandsbericht des IPCC gemacht: http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote8sym8.

 

Abbildung 4: Vorhersagen des IPCC in seinem ersten Zustandsbericht 1990, verglichen mit den nachfolgenden Temperaturmessungen durch NASA-Satelliten

Das war vor nunmehr 20 Jahren, und die mittlere Rate der Zunahme liegt in Wirklichkeit noch unter dem niedrigsten Trend der vom IPCC vorhergesagten Bandbreite.

Ozeantemperaturen

Die Ozeane enthalten die große Masse der Wärme im Klimasystem. Ordentliche Messungen der Ozeantemperaturen gibt es erst seit Mitte 2003, als das ARGO-System in Betrieb genommen wurde. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote9sym9, http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote10sym10.

Abbildung 5: Vorhersagen von Klimamodellen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote11sym11 der Ozeantemperatur im Vergleich mit den Messungen durch Argo http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote12sym12. Die Einheit der vertikalen Achse ist 1022 Joules (etwa 0,01°C)

Die Ozeantemperatur ist praktisch gleich geblieben seit dem Beginn ordentlicher Messungen und hat sich nicht so schnell erwärmt wie die Modelle vorhersagen.

Der atmosphärische Hotspot

Während Perioden mit globaler Erwärmung sagen die Klimamodelle ein bestimmtes Muster der atmosphärischen Erwärmung vorher; die bekannteste Veränderung ist eine Erwärmung in einer Höhe von 10 km über den Tropen, der „Hotspot“.

Der Hotspot ist das Zeichen der Verstärkung in ihrer Theorie (siehe Abbildung 1). Der Theorie zufolge entsteht der Hotspot durch zusätzliche Verdunstung, und der zusätzliche Wasserdampf transportiert wärmere und feuchtere Luft in Höhen, in denen zuvor kühle, trockene Luftmassen vorherrschend waren. Die Gegenwart eines Hotspots würde ein Zeichen der Verstärkung sein, und umgekehrt.

Atmosphärische Temperaturen wurden mit Wetterballonen seit den sechziger Jahren gemessen. Millionen Wetterballone ergaben während der vergangenen Jahrzehnte ein gutes Bild der atmosphärischen Temperaturen, einschließlich der Periode mit Erwärmung von den späten siebziger bis zu den späten neunziger Jahren. Diese wichtigen und entscheidenden Daten wurden durch das Klimaestablishment bis 2006 zurückgehalten und dann an obskurer Stelle veröffentlicht. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote13sym13. Hier sind sie:

 

Abbildung 6: Links sieht man die von Millionen Wetterballonen gesammelten Daten. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote14sym14. Rechts sieht man das, was den Klimamodellen zufolge hätte passieren sollen. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote15sym15. Die Theorie (jedenfalls die von den Klimamodellen angenommene) ist mit den Beobachtungen nicht kompatibel. In beiden Diagrammen zeigt die horizontale Achse die geographische Breite, die rechte vertikale Achse die Höhe in Kilometern.

In Wirklichkeit gab es keinen Hotspot, nicht einmal ansatzweise. Also gibt es in Wirklichkeit keine Verstärkung – die in Abbildung 1 gezeigte Verstärkung existiert nicht. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote16sym16

Ausstrahlung

Den Klimamodellen zufolge wird weniger Wärme in den Weltraum abgestrahlt, wenn sich die Erdoberfläche erwärmt (in wöchentlichem oder monatlichem Maßstab). Dies liegt nach der Theorie daran, dass die wärmere Oberfläche zu mehr Verdunstung führt und damit zu mehr Wärme schluckendem Wasserdampf. Dies ist der für die vermutete Verstärkung in Abbildung 1 verantwortliche Mechanismus der Wärmerückhaltung.

Satelliten haben die Ausstrahlung von der Erde während der letzten beiden Dekaden gemessen. Eine grundlegende Studie hat eine Verbindung hergestellt zwischen Änderungen der Temperatur an der Erdoberfläche und Änderungen der Ausstrahlung. Hier ist sie:

 

Abbildung 7: Ausstrahlung der Erde (vertikale Achse) im Vergleich zur Wassertemperatur (horizontal), gemessen durch die ERBE-Satelliten (oberer linker Graph) und wie von 11 Klimamodellen „vorhergesagt“ (andere Graphen). http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote17sym17. Man beachte, dass die Neigung der Graphen der Klimamodelle entgegen gesetzt der Neigung der Graphen der gemessenen Daten ist.

Dies zeigt, dass die Erde in Wirklichkeit mehr Strahlung aussendet, wenn die Oberfläche wärmer ist. Das ist genau das Gegenteil von den Vorhersagen der Klimamodelle. Dies zeigt, dass die Wärme den Klimamodellen zufolge viel zu stark zurück gehalten wird, und dass deren vermutete Verstärkung laut Abbildung 1 nicht existiert.

Schlussfolgerungen

Die Herkunft all dieser Daten hier ist unfehlbar angegeben – Satelliten, ARGO und Wetterballone. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote18sym18

Die Luft- und Wassertemperatur zeigen, dass die Klimamodelle Temperaturanstiege übertreiben. Das Klimaestablishment schiebt diese Abkühlung auf bisher nicht entdeckte Aerosole, was für das bisherige Scheitern der Modelle verantwortlich sein könnte, aber diese Entschuldigung wird immer dünner – es wird immer noch nicht so viel wärmer, wie sie sagen, oder auf eine Art und Weise, die sie sagen. Andererseits ist der Anstieg der Lufttemperatur stärker ausgefallen als die Skeptiker nur wegen des CO2 gesagt haben. Die Entschuldigung der Skeptiker lautet, dass der Anstieg zumeist durch andere Faktoren ausgelöst worden ist – und sie weisen darauf hin, dass sich die Welt in einem fast gleichmäßigen Erwärmungstrend von 0,5°C pro Jahrhundert seit 1680 befindet (mit alternierenden, etwa 30 Jahre langen Perioden von Erwärmung und leichter Abkühlung). Hingegen gab es den massiven anthropogenen CO2-Ausstoß erst nach 1945.

Wir haben alle wesentlichen Vorhersagen der Klimamodelle mit den besten Daten verglichen:

Die Klimamodelle waren durch die Bank falsch. Der fehlende Hotspot und die Daten der Ausstrahlung beweisen beide unabhängig voneinander, dass die Verstärkung in den Klimamodellen in Wirklichkeit nicht vorhanden ist. Ohne die Verstärkung würden die Temperaturvorhersagen der Klimamodelle um mindestens zwei Drittel niedriger ausfallen. Dies würde erklären, warum sie die gegenwärtigen Luft- und Wassertemperaturen so überschätzt haben.

Also:

  • Die Klimamodelle haben fundamental versagt. Deren vorhergesagte dreifache Verstärkung durch Rückkopplungen ist in Wirklichkeit nicht existent.
  • Die Klimamodelle überschätzen die Temperaturanstiege infolge CO2 mindestens um einen Faktor drei.

Der Standpunkt der Skeptiker ist mit den Daten kompatibel.

Einige politische Punkte

Die hier präsentierten Daten stammen aus eindeutigen Quellen, sie sind sehr relevant, öffentlich zugänglich und von den besten Instrumenten gemessen. Und doch tauchen sie niemals in den Main-Stream-Medien auf – oder haben Sie jemals so etwas wie einige der Abbildungen hier darin gesehen? Das allein sagt doch schon, dass die „Debatte“ um Politik und Macht geht, und nicht um Wissenschaft oder Wahrheit.

Dies ist eine ungewöhnliche politische Sache, weil es eine richtige und eine falsche Antwort gibt und jeder wissen kann, welche zutrifft. Die Leute schreiten voran und emittieren CO2 in jedem Falle, also machen wir das Experiment: Entweder heizt sich die Erde bis 2050 um mehrere Grad auf, oder eben nicht.

Man beachte, dass die Skeptiker mit den Klimawissenschaftlern der Regierung über die direkte Auswirkung des CO2 übereinstimmen; Uneinigkeit herrscht lediglich über die Rückkopplungen. In der Klimadebatte geht es nur um diese Rückkopplungen, alles andere sind Nebenschauplätze. Und doch weiß das kaum jemand. Die Klimawissenschaftler der Regierung und die Main-Stream-Medien haben die Debatte auf die direkten Auswirkungen des CO2 verengt und auf Nebenschauplätze wie das arktische Eis, schlechtes Wetter oder Psychologie. Sie erwähnen fast niemals die Rückkopplungen. Warum ist das so? Wer hat die Macht, das zu steuern?

About the Author*

*Die Angaben zum Autor werden wegen der vielen Institutsbezeichnungen und aus Zeitgründen nicht übersetzt. Man kann leicht mehr über ihn durch die angegebenen Links erfahren. A. d. Übers.

Dr David M.W. Evans consulted full-time for the Australian Greenhouse Office (now the Department of Climate Change) from 1999 to 2005, and part-time 2008 to 2010, modeling Australia’s carbon in plants, debris, mulch, soils, and forestry and agricultural products. Evans is a mathematician and engineer, with six university degrees including a PhD from Stanford University in electrical engineering. The area of human endeavor with the most experience and sophistication in dealing with feedbacks and analyzing complex systems is electrical engineering, and the most crucial and disputed aspects of understanding the climate system are the feedbacks. The evidence supporting the idea that CO2 emissions were the main cause of global warming reversed itself from 1998 to 2006, causing Evans to move from being a warmist to a skeptic.

Inquiries to david.evans@sciencespeak.com.

Republished on www.wattsupwiththat.com

Dieser Artikel ist als .pdf einzusehen bei: TheSkepticsCase

============================================================

Anmerlungen

1) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote1anc

Allgemeiner: falls das CO2-Niveau x (in parts per million) ist, dann schätzen die Klimamodelle die Temperaturzunahme infolge des zusätzlichen CO2 verglichen mit dem vorindustriellen Niveau von 280 ppm mit 4,33 ln(x/280). Zum Beispiel ordnet dieses Modell einen Temperaturanstieg von 4,33 ln(392/280) = 1.46°C einer CO2-Zunahme bis heute auf 392 ppm zu.

2) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote2anc

Die direkte Auswirkung des CO2 bleibt für jede Verdoppelung des CO2-Niveaus die gleiche (d. h. logarithmisch). Berechnungen der gestiegenen Oberflächentemperatur infolge einer CO2-Verdoppelung variieren von 1,0°C bis 1,2°C. In diesem Dokument verwenden wir den mittleren Wert von 1,1°C; allerdings hat der Wert keine Bedeutung für die hier beschriebenen Argumente.

3) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote3anc

Das IPCC projizierte 2007 in seinem jüngsten Zustandsbericht eine Temperaturzunahme bei einer Verdoppelung des CO2-Gehaltes (genannt Klimasensitivität) in einer Größenordnung von 2,0°C bis 4,5°C. Der zentrale Punkt in ihrem Modell schätzt 3,3°C, was drei mal der direkten Auswirkung des CO2 von 1,1°C entspricht, also sagen wir der Einfachheit halber, dass ihre Übertreibung dreifach ist. Präziser, jedes Klimamodell hat eine etwas unterschiedliche effektive Verstärkung, aber allgemein liegen sie um 3,0.

4) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote4anc

Allgemeiner: falls das CO2-Niveau x (in parts per million) ist, dann schätzen die Skeptiker die Temperaturzunahme infolge des zusätzlichen CO2 verglichen mit dem vorindustriellen Niveau von 280 ppm mit 0,72 ln(x/280). Zum Beispiel ordnen die Skeptiker einen Temperaturanstieg von 0,72 ln(392/280) = 0,24°C einer CO2-Zunahme bis heute auf 392 ppm zu.

5) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote5anc

Die Auswirkung der Rückkopplungen lässt sich nur schwer mit einem empirischen Beweis nachweisen, weil es viel mehr Kräfte gibt, die die Temperatur beeinflussen als nur eine Änderung des CO2-Niveaus, aber es scheint eine Multiplikation irgendwo zwischen 0,25 und 0,9 zu sein. Der Einfachheit halber haben wir hier den Wert 0,5 benutzt.

6) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6anc

Hansens Vorhersagen stehen hier (20. August 1988), Abb. 3a Seite 9347. In der Graphik hier werden Hansens drei Szenarien alle am gleichen Punkt gestartet Mitte 1987 – wir sind nur an Änderungen (Anomalien) interessiert.

7) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote7anc

Die hier gezeigte Temperatur der Erde ist durch NASA-Satelliten gemessen worden, die die Temperatur der Erde seit 1979 vermessen, betrieben von der University of Alabama in Huntsville (UAH). Satelliten messen die Temperatur 24/7 [?] in breiten Streifen von Land und Wasser in der ganzen Welt außer an den Polen. Während es bei den Satelliten einige Probleme bei der Anfangskalibrierung gab, sind diese seit Langem zu jedermann’s Zufriedenheit gelöst worden. Satelliten sind die verlässlichsten, ergiebigsten und am wenigsten verzerrten Instrumente der Menschen, um die Lufttemperatur seit 1979 zu messen. Dies ist eine unfehlbare Datenquelle, und jeder kann sich die Daten selbst von hier herunter laden (Vorgehensweise: …)

8) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote8anc

Erster Zustandsbericht des IPCC 1990, Seite 22  (www.ipcc.ch/ipccreports/far/wg_I/ipcc_far_wg_I_full_report.pdf) in der Zusammenfassung für Politiker, Abbildung 8 und zugehöriger Text für das Szenario weiter-wie-bisher (was tatsächlich passiert ist, da es bis heute keine signifikanten Kontrollen über und eine Abnahme der Emissionen gibt). „Unter dem Weiter-wie-bisher-Szenario (A) des IPCC bzgl. der Emission von Treibhausgasen wird die mittlere Rate der globalen Temperaturzunahme im kommenden Jahrhundert mit etwa 0,3°C pro Jahrzehnt geschätzt (mit einer Unsicherheit von 0,2°C bis 0,5°C)“

9) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote9anc

http://www.metoffice.gov.uk/weather/marine/observations/gathering_data/argo.html

10) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote10anc

Messungen der Ozeantemperatur vor dem ARGO-Programm sind praktisch wertlos. Zuvor wurde die Ozeantemperatur mit Eimern gemessen oder mit Bathythermographen (XBTs) – wobei es sich um nur einmal verwendbare, im Wasser absinkende Messsonden handelt, die Temperatur- und Druckdaten übermitteln. Fast alle diese Messungen erfolgten entlang der hauptsächlichen kommerziellen Schifffahrtsrouten, so dass die geographische Ausbreitung der Messungen ärmlich war – zum Beispiel wurden die riesigen südlichen Ozeane überhaupt nicht erfasst. XBTs reichen nicht so tief wie die ARGO-Bojen, und ihre Daten sind viel weniger präzise und viel weniger akkurat (u. a. weil sie sich zu schnell durch das Wasser bewegen, um in ein Gleichgewicht mit dem umgebenden Wasser zu kommen, dessen Temperatur gemessen werden soll).

11) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote11anc

Die Klimamodelle nehmen eine Zunahme des ozeanischen Wärmegehalts von etwa 0,7 × 10^22 Joules pro Jahr an. Siehe Hansen et al. 2005: Earth’s energy imbalance: Confirmation and implications. Science, 308, 1431-1435, Seite 1432 (pubs.giss.nasa.gov/cgi-bin/abstract.cgi?id=ha00110y), wobei die Zunahme des Wärmegehaltes in Quadratmeter Oberfläche in den oberen 750 m den typischen Modellen zufolge etwa 6,0 Watt/m² pro Jahr beträgt. Das wird zu 0.7 × 10^22 Joules pro Jahr für den gesamten Ozean, was hier erklärt wird.

12) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote12anc

Der Wärmegehalt der Ozeane bis zu einer Tiefe von 700 m gemessen durch ARGO ist jetzt verfügbar, man kann es von hier herunter laden. Die Zahlen zeigen die Änderungen des mittleren Wärmegehalts während drei Monaten in Einheiten von 10^22 Joules, jahreszeitlich angepasst. Das ARGO-System ging Mitte 2003 in Betrieb, daher beginnen unsere Daten im Juni 2003.

13)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote13anc

Die Daten der Wetterballone, die die Erwärmungsverteilung in der Atmosphäre zeigen, wurden schließlich 2006 veröffentlicht, und zwar im US Climate Change Science Program, Teil E von Abbildung 5.7 auf Seite 116 (www.climatescience.gov/Library/sap/sap1-1/finalreport/sap1-1-final-chap5.pdf). Es gibt keine anderen Daten aus dieser Zeit, und wir können keine weiteren Daten atmosphärischer Erwärmung erhalten, bis die globale Erwärmung wieder einsetzt. Dies sind die einzigen Daten, die es gibt. Übrigens, ist das nicht eine obskure Stelle, um so wichtige und entscheidende Daten zu veröffentlichen – Sie glauben nicht, dass sie etwas verbergen wollen, oder?

14)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote14anc

Siehe vorige Anmerkung.

15)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote15anc

Jedes beliebige Klimamodell, zum Beispiel aus dem AR 4 des IPCC 2007, Kapitel 9, Seite 675. Man kann es auch im Internet einsehen, und zwar hier (Abbildung 9.1, Teile c und f). Es gab eine geringe Erwärmung von 1959 bis 1977, so dass die allgemein verfügbaren Simulationen von 1959 bis 1999 auch anwendbar sind.

16) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote16anc

Also beträgt der Multiplikationsfaktor in der zweiten Box der Abbildungen 1 und 2 höchstens 1,0.

17) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote17anc

Lindzen und Choi 2009, Geophysical Research Letters Vol. 36: http://www.drroyspencer.com/Lindzen-and-Choi-GRL-2009.pdf. Die Studie wurde nach einiger Kritik korrigiert, kommt aber im Wesentlichen 2011 wieder zum gleichen Ergebnis: www-eaps.mit.edu/faculty/lindzen/236-Lindzen-Choi-2011.pdf.

18) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote18anc

Im Einzelnen haben wir Ergebnisse von Thermometern an Land nicht genannt, oder von den vereinzelten Beispielen mit Eimern und XBTs auf dem Meer. Thermometer an Land sind notorisch empfänglich für lokale Effekte – siehe Is the Western Climate Establishment Corrupt? durch den gleichen Autor: jonova.s3.amazonaws.com/corruption/climate-corruption.pdf

Link: http://wattsupwiththat.com/2012/02/26/the-skeptics-case/

Autor: David M. W. Evans

Übersetzt von Chris Frey

*Die Überschrift wurde bewusst nicht übersetzt. Man könnte es mit „Der Fall der Skeptiker“ versuchen, aber das wäre schwer missverständlich. – A. d. Übers.




Wie der Schiefer-Boom in den USA die Welt verändern wird

Etwas Merkwürdiges auf dem Weg zu einer sauberen Energiezukunft ist im Gange – die Realität halt Einzug. Es gibt ‚unwiderlegbare Beweise’ über ökonomisches Wachstum und Arbeitsplätze schaffende Auswirkungen des Booms unkonventionellen Gases und Öls – über 600 000 Arbeitsplätze stehen direkt im Zusammenhang mit der Ausbeutung von Schiefergas. Selbst Präsident Obama lobt die Arbeitsplätze schaffenden Vorteile von ‚Amerikas Ressourcen-Boom’. Amerika erhält seinen Energieglücksbringer zurück, und das sind gute Nachrichten, aber nicht die ganze Geschichte.

Wieviel Schiefergas gibt es in den Vereinigten Staaten? Im Juli 2011 hat die EIA in den USA (Energy Information Administration) eine Übersicht der sich abzeichnenden Ressourcen veröffentlicht: Schiefergas und Schieferöl in den USA, gefördert von INTEK. Dies ist ein aktualisierter Zustandsbericht über technisch förderbares Erdgas und Erdöl in den 48 Kernstaaten. Dem Bericht zufolge finden sich die größten technisch erschlossenen Gasreserven im Nordosten (63%), an der Golfküste (13%) und im Südwesten (10%). Die größten Schiefergasfelder sind das Marcellus-Feld (410,3 Billionen Kubikfuß, 55 Prozent der gesamten Ressourcen), Haynesville (74,7 Billionen Kubikfuß, 10 Prozent der Gesamtmenge) und Barnett (43,4 Billionen Kubikfuß, 6 Prozent der Gesamtmenge). Der Bericht wurde erstellt, … um einen Anfangspunkt für die zukünftige Arbeit zu geben.

Die USA verfügen über dreimal so viel nachgewiesene Reserven an Schieferöl wie Saudi-Arabien.


Die globalen Schieferölreserven tragen mehr als 10 Billionen Barrel. Mehr als 1,8 Billionen Barrel liegen eingehüllt von Schiefer auf bundeseigenem Land in den westlichen USA, also in den Bundesstaaten Colorado, Utah und Wyoming, wovon 800 Milliarden als förderwürdig angesehen werden – dreimal so viel wie die nachgewiesenen Reserven in Saudi-Arabien. Der Bericht von INTEK für die EIA fand 23,9 Milliarden Barrel von technisch abbaubaren Schieferölreserven in den 48 Kernstaaten der USA. Das Monterey/Santos-Feld in Südkalifornien ist das größte Feld, und man schätzt, dass dort 15,4 Milliarden Barrel oder 64 Prozent der Gesamtmenge an Schieferöl liegen, gefolgt von den Feldern Bakken und Eagle Ford mit 3,6 bzw. 3,4 Milliarden Barrel Schieferöl.

Die Schaffung neuer Arbeitsplätze wird durch niedrige Energiekosten gefördert. In einem Bericht von PricewaterhouseCoopers für die National Association of Facturers heißt es, billiges nationales Erdgas wird die Herstellkosten in der Fertigungum 11 Milliarden Dollar pro Jahr während der nächsten 10 Jahre absenken sowie mehr als eine Million neuer Arbeitsplätze schaffen. Diese neue Niedrigkosten-Energiewirklichkeit wird das verfügbare Einkommen pro Haushalt um 2000 Dollar pro Jahr zunehmen lassen. Das Wachstum der nationalen Gaserzeugung aus unkonventionellen Quellen (Schiefergas) hat die Gaspreise in den USA vom Weltöl- und Flüssiggaspreis abgekoppelt, hat die Abhängigkeit der USA von Flüssiggasimporten umgekehrt und die Preise  nahe neuer Rekord-Niedrigwerte gedrückt für eine langzeitliche verlässliche heimische Energieversorgung.

Die Schaffung neuer Arbeitsplätze führt zu wachsenden Sorgen wegen des Fachkräftemangels und zu einem wilden Werben um Talente.

Gerade zu Beginn des Schiefer-Phänomens steht der Markt der seit langer Zeit lauernden Realität gegenüber, nämlich, dassmehr als 10 000 Menschen pro Tag aus den Babyboomjahren allein in den USA in den Ruhestand treten. Das gleiche Schicksal oder Schlimmeres droht den anderen globalen Märkten. Die gute Nachricht ist, dass die Nachfrage nach Erfahrung, Können und technologischem Expertenwissen bei den Arbeiternin der Öl- und Gasindustrie zum längeren Arbeiten überredet werden, oder ihre Erfahrung teuer verkaufen können, um ihre finanziellen Ruhestandsreserven aufzufüllen, die während der großen globalen Rezession gebeutelt wurden. Es wird erwartet, dass die Nachfrage nach erfahrenen Kräften die Reihen der Ingenieure, Entwicklungs-Techniker, , Wissenschaftler auffüllen wird, und sich auf die Mathematik-,  und Softwareprogrammierer- und Universitätsausbildung erstrecken wird, um die Nachfrage zu decken. Aber noch mehr werden Schweißer, Klempner, Elektriker, erfahrene Maschinisten und andere Handwerker gebraucht, um die notwendige technische Unterstützung sicherzustellen und die technologische Entwicklung weltweit zu unterstützen.

Auf dem freien Markt fossiler Brennstoffe wird die Kohle zugunsten von Erdgas zurückgedrängt.


Nachdem den fossilen Treibstoffen mit immer mehr Verordnungenein wahrer Krieg erklärt zur Unterminierung der Wirtschaft erklärt worden war und auch um die Unterstützung für billige Energie-Erzeugung zu schwächen, um die Nachfrage und damit die Emissionen zu reduzieren, sehen sich die Gegner fossiler Treibstoffe nun auch mit einer starken neuen Realität konfrontiert. Neue Verordnungen können die vorzeitige Schließung von Kohlekraftwerken erzwingen, aber deren Kapazität wird wahrscheinlich durch hoch effiziente erdgasbefeuerte nicht erneuerbare Energieersetzt. Niedrige Gaspreise sind für die Kohle eine viel größere Bedrohung als alles, wovon die EPA [die US-amerikanische Umweltbehörde] nur träumen kann. Es ist also kein schlechtes Ergebnis des freien Marktes, wenn ältere Kohlekraftwerke durch neuere, sauberere und billigere Erdgaskraftwerke ersetzt werden. Auch für die Umwelt ist das nicht schlecht. Inzwischen bleibt der EPA nichts anderes übrig, als ihre regulatorischen Übertreibungen schmerzlich zu bedauern, die sie in Zeiten ökonomischer Unsicherheit aufgehäuft hat und ihre vorsätzliche Unterminierung der amerikanischen Wachstums- und Produktivkraft. Die weniger effektiven älteren Kohlekraftwerke werden durch Erdgaskraftwerke im Lastfolgebetrieb zurückgedrängt. Erdgas ist der Treibstoff der Wahl in fast jedem Energiemarkt, und Gas wird als Reserve für jedes MW Erneuerbarer Energie gebraucht. Niedrige Gaspreise durch die zunehmende Produktion von Schiefergas macht Gas zur billigsten Quelle, was für fast jede Region das Beste ist.

Die verbrauchte Energie im Transportsektor wächst von 27,6 Billiarden Btu [British Thermal Unit] im Jahr 2010 auf 28,8 Billiarden Btu bis 2035, dem AEO2012-Referenz Szenario zufolge (Figure 7). Der Energieverbrauch leichterer Fahrzeuge [Light Duty Vehicles, LDVs] einschließlich kommerzieller Kleinlastwagen nimmt im Referenzszenario ab, und zwar von 16,5 Quadrillionen Btu im Jahr 2010 auf 15,7 Billiarden Btu im Jahr 2025. Dies ergibt sich durch die projizierte höhere Sparsamkeit im Treibstoffverbrauch von Autobahnfahrzeugen. Der projizierte Energieverbrauch für leichte Fahrzeuge nimmt nach 2025 auf 16,3 Billiarden Btu im Jahr 2035 zu.

Billiges Schiefergas treibt die Kosten für die Stabilisierung des Netzes durch Erneuerbare nach unten.


Die gleichen Marktkräfte, die alte Kohlekraftwerke verdrängen zugunsten einer neueren, sauberen, mit Erdgas befeuerten Generation von Kraftwerken beeinflussen auch die erneuerbare Energie, vor allem Wind und Solar. Die Flut von Solarpaneelen und Windturbinen, durch Überproduktion in China auf der Suche nach wachsendem Export auf den Markt geworfen, hat jetzt dazu geführt, dass europäische Regierungen Einspeisevergütungen und Subventionen verringert oder ganz gestrichen haben, weil dort fallende Preise die Preise für erneuerbare Energien auf die Ebene der Wettbewerbsfähigkeit mit Erdgas bringen würden. Aber die Realität sieht anders aus: Die infolge der Produktion von Schiefergas niedrigen Gaspreise drücken die Preise für den Paritätspunkt im Netznach unten. Regierungen in der EU, schwer gebeutelt von der Finanzkrise in der Eurozone, können sich die Subventionen für die Einspeisung nicht mehr leisten. Viele US-Bundesstaaten, die den Anteil an Erneuerbarer Energieerzeugung erhöhen wollten,, passen ihre Ziele an, nur wenige folgen Kalifornien bei dessen Führung zu  einem noch höheren Ziel von 33% RPS [California Renewables Portfolio Standard] (Anteil von Erneuerbaren an der Energieerzeugung). Unter dem Strich: Die Erneuerbaren werden zu einer vorwiegenden Energieerzeugungs-Quelle, wenn sie den Anschluss an oder nahe dem Netzparitätspreis finden, profitabel sind sie aber nur durch Subsidien. Die Konsolidierung fegt durch diesen Sektor, kleinere Teilnehmer werden von den großen globalen Spielern mit größeren Geldbeuteln übernommen.

Zähmung der bösen Buben in der Nachbarschaft.


Da das Potential und die Entwicklung von Schiefergas weltweit immer besser verstanden wird, ist ein subtiler giftiger Trend in Gang gekommen, während die zur Ausbeutung des Schiefergases notwendige Technologie und die Infrastruktur immer weiter verbessert wird. Die bösen Buben in jeder Region stehen plötzlich unter Druck von ihren Nachbarn, sich zu bessern. Warum? Der starke Wettbewerb zum technologischen Zugang ermöglicht es multinationalen Firmen, frei zu entscheiden, wo sie arbeiten – und sie wählen keine Stellen aus, an denen Aufrührer auf sie schießen, ihre Projekte zum Platzen bringen oder wo sie von ungehemmter Korruption ausgebeutet werden. Ein informeller Verhaltenskodex entwickelt sich, der jeden sich entwickelnden Markt nach seinem eigenen Potential zur Erzielung von Profiten durch die Technologie- und Infrastruktur-Lieferanten beurteilt. Das im Wettbewerb als nächstes zur Auswahl stehende Gebiet zwingt die Leute vor Ort dazu, ihr schlechtes Verhalten zu zügeln und ihren Platz in der Warteschlange zu verbessern. Zusammen mit niedrigen Preisen, die das schlimme Subventionspotential von Iran, Russland und anderen traditionellen Unheilstiftern reduzieren, und mit dem Wunsch zum Zugang zur benötigten westlichen Technologie von seiten der Staatenund Nationalen Großfirmen  sichern sich die erfahreneren politischen Führer in ihrer regionalen Nachbarschaft untereinander ab, um ihre Wirtschaften zum Wachstum zu bringen.

Wirtschaftliches Wachstum führt zu einer wachsenden Mittelklasse und zur Forderung auf weniger Korruption, mehr Reformen und dauerhaften demokratischen Änderungen. Die Entwicklung der Schiefergasförderung ist die Muttermilch für demokratische Änderungen, wie sie im arabischen Frühling deutlich werden, aber sie werden unterdrückt von den bösen Buben in der Nachbarschaft. Der Enthusiasmus für Wachstum verstärkt das Verlangen nach Änderung. Die Lektionen der Zähmung der bösen Buben in der Nachbarschaft kommen den Despoten nicht zugute. Einige wollen standhalten, sie werden durch eine Kombination von heimischem Verlangen nach Änderung und dem ‚Verhaltenskodex’ hinausgedrängt, der sie an den Schluss der Warteschlange drückt Die Gefahr, hinter der Welle globalen wirtschaftlichen Wachstums zurückzubleiben, erweist sich als zu stark, um ihr zu widerstehen.

Üppige Energievorräte reduzieren globale Konflikte.


Reichliche und gleichmäßig verteilte Energievorräte (Erdgas) reduzieren die Intensität des Wettbewerbs um neue Energiequellen für neue Kernstaaten wie Indien und China. Neue Treibstoffe auf die Märkte zu bringen, hat höhere Priorität als energiepolitische Abenteuer (Chinas Suche nach Energie in Afrika). Es erlaubt auch wichtigen globalen Spielern, sich auf das Wachstum ihrer Wirtschaft zu konzentrieren und nicht ihr Militär zu verstärken, um gegen Energieknappheit gewappnet zu sein.

Üppige Energievorräte lassen globale Konflikte zunehmen.


Neue Energiequellen und neue Technologie sorgen dafür, dass nationale Regierungen Ressourcen ausschöpfen, wo sie diese zuvor nicht ausschöpfen konnten. Diese neuen technologischen Möglichkeiten verstärken Konflikte auf lokaler, regionaler und globaler Ebene. Einheimische Gruppen, lokale Übelstände  und Autonomiebewegungen entstehen in den neuen, energiereichen Gebieten von selbst. Lange schwelende Grenzkonflikte werden neuen Zündstoff erhalten, wenn in diesen Gebieten neue reiche Energievorkommen gefunden werden. Die Regierungen werden die Ausbeutung in diesen Gebieten priorisieren aus Furcht, dass der Nachbar ihre eigenen Lagerstätten anzapft..

Technologische Implikationen

Nationale Öl- und Gasgesellschaften werden gezwungen, sich im Wettbewerb um horizontale Bohrungs- und Fracking-Technologien und die Ausrüstung zu bewerben. Mit vielen Schiefergasquellen verlieren große und die Riesen-Unternehmen das Interesse, mit so mancher Nationalen Öl-Gesellschaft zusammen zu arbeiten, mit der es traditionell schwierig war oder die zuviel Profit abhaben wollte.

Der Zugang zu Wasser erweist sich als eine der größten Herausforderungen bei der Erzeugung von Schiefergas.


Der Widerstand gegen den Verbrauch von Trinkwasser für das Fracking vor allem in ariden Gebieten wie dem Nahen Osten, wo das Wasser wertvoller ist, wächst immer mehr. Dies führt zu Investitionen in die Infrastruktur, um recyceltes Wasser nutzbar zu machen sowie in die Entsalzung vor allem von Brackwasser. Mit der sich erweiternden Infrastruktur werden die Wasserspeicherung, die Überwachung und die Verteilersysteme effizienter, und weniger Wasser geht durch Lecks verloren, vor allem aus alten Systemen.

Der Nahe Osten wird zu einem Labor für die Entwicklung neuer Energien mit kombinierten Wärme- und Stromprojekten sowie Mikronetzen, die die Entwicklung von Schiefergas stützen. Der erweiterte Gebrauch von Solarpaneelen für Anwendungen in kleinen Bereichen profitiert von den fallenden Preisen der in China hergestellten Paneele. Die Nachfrage nach so viel neuer Energie und Umweltinfrastruktur rückt den Nahen Osten ins Zentrum der Entwicklung sauberer Energie und der Entwicklung der entsprechenden Technologie. Dadurch werden Investitionen von China und anderen beflügelt, die auch darauf brennen, Zugang zu fortgeschrittener Technologie zu bekommen, um ihre eigenen Schiefervorkommen zu erschließen.

Die wachsende Nachfrage nach Technologie bedroht konventionelles Wissen und überwindet herkömmliche Geschäftsmodelle.

Die globalen Großunternehmen und die Führer in der Technologie horizontaler Bohrungen schaffen einen Wettbewerbsmarkt für ihre Dienste und zwingen die Nationen sich um Zusammenarbeit mit ihnen zu bemühen anstatt der traditionellen staatlichen Ausschreibungen und Konzessionsvergaben.

Die Öl- und Gas-Geschäftsmodelle verschieben sich vom Besitz des Produktes zur Bereitstellung der Technologie und sich mit handelbaren Anteilen von nachgewiesenen Reserven bezahlen zu lassen. Dies führt zu großen Beständen an verteilten „Schiefer“-Reserven als handelbare Gütermit denen Risiken ausgeglichen, Potenzial bezahlt und beschleunigtes Wirtschaftswachstum in einem offenen Markt belohnt wird, anstelle durch die von OPEC Russland oder Quatar dominierten Monopole oder durch die Nationalen Öl-Gesellschaften. In diesem Wettbewerbsmärkten bleiben böse Buben wie Iran, Venezuela und andere draußen vor, sind sie doch nicht in der Lage, in offenen Märkten zu bestehen und unfähig, die ansässigen Firmen zu erpressen, wenn diese damit drohen, wegzuziehen oder anderswo nach besseren Möglichkeiten zu suchen. Adere Märkten wie Mexiko, wo selbst auferlegte Hindernisse für Investitionen von außen oder Übernahmen durch ausländische Eigentümer dafür gesorgt haben, dass das Wachstum unterminiert worden ist und der Zugang zur Technologie begrenzt wurde,  finden in offenen Märkten einen Ausweg aus der Falle und ergreifen ihre Chance durch die Nachfrage nach neuer Technologie, um ihre Exploration und Förderung zu steigern und nutzen den globalen Börsenhandels, und bezahlen für die Entwicklung ihrer Entwicklungs- und Fördertechnologie mit handelbaren Kontrakten auf die zukünftige Produktion und Reserven.

Investitionen in die Entwicklung von Technologien und Infrastruktur steigen sprunghaft,


da jeder regionale Markt danach trachtet, seinen Platz in der Warteschlange zu verbessern und nach neuen Technologie-Firmen  sucht, die von den Energie-Riesen Geschäft abziehen wollen, indem sie neuen in diesem Sektor tätigen Firmen bessere Bedingungen bieten.  Tatsächlich wird dieser wachsende Markt neuer Energietechnologie von den Energie-Riesen, den Staatsfonds undtraditionellen Energieanbietern finanziert., die Zugang zu diesen neuen Technologien suchen.

Die sich allmählich ausbreitende Auswirkung des Explorations- und Produktions-Wachstums lässt das globale Bruttoinlandsprodukt wachsen, ermutigt Investoren, führt Millionen aus der Armut und intensiviert die Forderung nach demokratischen Reformen, um nachhaltiges Wachstum sicherzustellen.

Die mit der Entwicklung der Exploration und Produktion von „Schiefer“-Ressourcen verbundenen globalen finanziellen Auswirkungen

PriceWaterhouseCoopers berichtete, dass in den ersten drei Quartalen des Jahres 2010 das Umsatzvolumen von Firmenfusionen und Übernahmen (Mergers and Acquisitions) auf 20,1 Milliarden Dollar gestiegen ist, gegenüber 6,8 Milliarden Dollar im gleichen Zeitraum des Jahres 2007. Dieser Umsatzvolumenzuwachs ist das Ergebnis einer Hebelung der Finanzkraftseitens der  Energieriesen im „Schiefer“-Geschäft und die „Schiefer-Marktsektor“-Reserven wurden von „wilden“ privaten Ölbohrern und von kleinen unabhängigen Firmen wie Mitchell Energy angetrieben, die sich auf horizontale Bohrung und Fracking spezialisiert hat, um sich den eigenen Markt zu erschließen und nicht mit den Energieriesen im Wettbewerb stehen zu müssen. Aber das Wachstum in der Exploration und Produktion von unkonventionellem Öl- und Gas hat die Riesen  sowie andere Investoren angezogen, die alle von dem steigenden „Schiefer“-Markt profitieren wollen. Heute sind große Ölgesellschaften große Investoren in „Schiefer“, haben sie doch das Wachstumspotential erkannt, das sie mit Hebelwirkung benutzen als Alternative zu konventionellen Öl- und Gas-Vorkommen , die durch zunehmende Umweltbeschränkungen und rapide abnehmende Förderraten gekennzeichnet sind. Tatsächlich hat das Wachstum bei unkonventionellem Öl und Gas längst den Rückgang bei der Förderung aus amerikanischen Reserven wettgemacht.

Etwa ein Drittel der gesamten, in den USA verbrauchten Energiemenge, 23,4 Trillionen Btu, waren 2010 im Industriesektor verbraucht worden. Verglichen mit dem AEO2012-Referenzszenario wird der gesamte industrielle Energieverbrauch um 16 Prozent wachsen, von 23,4 Trillionen Btu im Jahr 2010 bis 27,0 Trillionen im Jahr 2035. Der größte Energieverbraucher ist die großchemische Industrie im Industriesektor mit einem Verbrauch von 21 Prozent der gesamten im Jahre 2010 verbrauchten Energie. Bis zum Jahr 2026 jedoch wird die Raffinerie-Industrie, definiert als Einrichtungen zur Erzeugung von Petroleum, Biotreibstoffen und Kohleverflüssigung unter Einbezug des Eigenverbrauchs zur größten Energie verbrauchenden Industrie im AEO2012-Referenzzeitraum.

Die energieintensiven Fertigungs-Industrien zusammen, wie z.B. die Großchemie, Raffinerien, Papierprodukte, Eisen und Stahl, Aluminium, Nahrung, Glas und Zement erzeugen etwas mehr als ein Viertel des Gesamtwertes der Industrieproduktion bei einem Anteil von etwa zwei Dritteln des gesamten Energieverbrauchs im Industriesektor.  Obwohl erwartet wird, dass sich die energieintensiven Industrien von der jüngsten Rezession erholen werden, wird sich ihr langzeitliches Wachstum verlangsamen, und zwar wegen des zunehmenden internationalen Wettbewerbs und einer Verschiebung der in den USA erzeugten Verbrauchsgüter hin zu höherwertigen Gütern. Der Dollarwert der Auslieferung  von Gütern der energieintensiven Industrien wächst von 2010 bis 2035 um 29 Prozent im AEO2012-Referenzfall, während der Wert der nicht von energieintensiven Industrien stammenden Güter um 57 Prozent zunehmen wird. Als Ergebnis der Verlagerung hin zu einer nicht so energieintensiven Produktion nimmt der Energieverbrauch langsamer zu als die Auslieferungen, und die Energieintensität industrieller Produktion geht zurück.

Niedrige Energiepreise sorgen auch für Energiesicherheit, wenn eine zuverlässige Versorgung durch die Verminderung von Amerikas Abhängigkeit von Öl- und Gasimporten aus dem Nahen Osten gewährleistet ist und durch die Verminderung der  Ölpreisschwankungen, weil die Nachfrage durch „Schiefer“ über breiter angelegte Liefermöglichkeiten verteilt wird.Niedrige Energiepreise vor allem beim Öl unterminieren die Wirtschaft der OPEC-Staaten und reduzieren ihre geopolitische und globale wirtschaftliche Macht. Dies kann zu einer Änderung der US-Außenpolitik führen, und zwar hin zu Prioritäten weg vom Mittleren Osten.

By. Gary L. Hunt

Link: OilPrice.com, 15 February 2012

Übersetzt von Chris Frey unter Mithilfe von Helmut Jäger




Neue Studie: Eine hoch aufgelöste Karte der Massenbilanz zeigt „von 1979 bis 2010 keinen signifikanten Trend der antarktischen Eisbedeckung“

Bild rechts: Zeitserie von SMB-Komponenten (SMB = Surface Mass Balance), integriert über den Eisschild einschließlich des Schelfeises für die Periode 1979 bis 2010 (alle in Gt y#-1). Schneefall (schwarze durchgezogene Linie) wird auf der linken Achse gezeigt, zusammen mit der SMB (Balken), die anderen Komponenten werden auf der rechten Achse angezeigt.

Eine neue, hoch aufgelöste Oberflächen-Massenbilanz der Antarktis (1979 bis 2010) auf Basis regionaler atmosphärischer Klimamodellierung

J. T. M. Lenaerts, M. R. van den Broeke, W. J. van de Berg, E. van Meijgaard,
und P. Kuipers Munneke
Received 17 January 2012; accepted 21 January 2012; published 21 February 2012.

Abstract: (1) Eine neue, hoch aufgelöste (27 km) Karte der Oberflächen-Massenbilanz (SMB) des antarktischen Eisschildes wird präsentiert. Sie basiert auf den Ergebnissen eines regionalen atmosphärischen Klimamodells, in das auch die Physik von Schneewehen eingegangen ist, ebenso wie die jüngsten Daten einer Neu-Analyse des Europäischen Zentrums für Mittelfristige Wettervorhersage (ECMWF), ERA-Interim (1979 bis 2010). Die SMB-Karte bestätigt Zonen mit hoher Akkumulation auf der Westseite der antarktischen Halbinsel (über 1500 mm pro Jahr) und der Küste der Westantarktis (über 1000 mm pro Jahr). Niedrige SMB-Werte zeigen sich in weiten Gebieten des innerantarktischen Eisschildes (unter 25 mm pro Jahr). Die Örtlichkeit und das Ausmaß von Gebieten der Abtragung werden realistisch modelliert.

Die modellierte SMB steht in guter Übereinstimmung mit ±750 in-situ SMB-Messungen (R = 0,88), ohne dass es einer nachträglichen Kalibrierung bedarf. Die mittlere SMB integriert über den gesamten Eisschild einschließlich des Schelfeises wird mit 2418 ± 181 GT pro Jahr geschätzt. Der Schneefall zeigt eine moderate jährliche Variabilität (s = 114 Gt pro Jahr), aber einen ausgeprägten jahreszeitlichen Zyklus (s = 30 GT pro Monat) mit dem Maximum im Winter. Der wesentliche Prozess der Abtragung ist die Sublimation von Triebschnee, der ebenfalls im Winter maximal ist, aber mit geringer jährlicher Variabilität (s = 9 Gt pro Jahr).

Referenz: Lenaerts, J. T. M., M. R. van den Broeke, W. J. van de Berg, E. van Meijgaard und P. Kuipers Munneke (2012): A new, high-resolution surface mass balance map of Antarctica (1979–2010) based on regional atmospheric climate modeling, Geophys. Res. Lett., 39, L04501, doi:10.1029/2011GL050713.

Und hier kommt der Schlüsselsatz: (15) Wir haben im Zeitraum 1979 bis 2010 keinen signifikanten Trend in den Komponenten der Massenbilanz gefunden, was die Ergebnisse von Monaghan et al. (2006) bestätigt. Der geschätzte SMB-Trend, integriert über den Eisschild, ist etwa gleich 3+/-2 Gt/y^-2.

Anthony Watts

Die ganze Studie findet man hier.

Link: http://wattsupwiththat.com/2012/02/20/new-paper-a-high-resolution-surface-mass-balance-map-of-antarctica-shows-no-significant-trend-in-the-1979-2010-ice-sheet/

Übersetzt von Chris Frey