Fuzzy Dreieckszahlen und das IPCC

Oder wie es diese Gelehrten es ausdrücken:

Temperaturänderung (∆T) = Klimasensitivität ( λ ) mal erzwungene Änderung durch Antriebe (∆F).

Oder als Gleichung:

∆T = λ  ∆F.

Das Problem dabei ist Folgendes: Nach dreißig Jahren von Versuchen, die natürliche Welt in diese Zwangsjacke zu stecken, ist es ihnen bis heute nicht gelungen, diese Zahlen festzumachen. Meine Theorie lautet, dass die Ursache hierfür ein theoretisches Missverständnis ist. Der Fehler liegt in der Behauptung, dass Temperaturänderung gleich den Änderungen der Antriebe mal irgendeiner Konstante ist.

Bild rechts: Die unscharfe Dreieckszahl für die Anzahl der Säugetierarten [4166,  4629, 5092]wird repräsentiert durch die durchgezogene Linie. Die Spitze liegt bei der besten Schätzung, 4629. Die oberen und unteren Begrenzungen der vermuteten Anzahl der Arten variieren mit dem Wert der Zugehörigkeit [membership value]. Für einen Wert der Zugehörigkeit von 0,65 (gepunktete Linien) liegt die untere Grenze bei 4467Arten und die obere Grenze bei 4791Arten (IUCN 2000)

Was sind also unscharfe Dreieckszahlen, und wie können sie uns helfen zu verstehen, warum die Behauptungen des IPCC bedeutungslos sind?

Eine unscharfe Dreieckszahl setzt sich aus drei Schätzungen irgendwie unbekannter Variablen zusammen – die niedrigste, die höchste und die beste Schätzung. Um mit diesen ungewissen Angaben Berechnungen anzustellen, ist es nützlich, „unscharfe Mengen“ zu verwenden. Die traditionelle Mengenlehre enthält die Entscheidung, ob etwas exklusiv Teil der Menge ist oder nicht. Zum Beispiel ist ein Tier entweder lebendig oder tot. Allerdings kann für eine Anzahl von Mengen keine klare Mitgliedschaft bestimmt werden. Zum Beispiel, ist eine Person mit 55 Jahren „alt“?

Während man keine klare ja/nein-Antwort geben kann, können wir unscharfe Mengen nutzen, um die Größenordnungen dieser Art von Werten zu bestimmen. Anstelle von 0 oder 1, die die Mitgliedschaft in traditionellen Mengen festlegen, verwenden unscharfe Mengen eine Zahl zwischen 0 und 1, um eine teilweise Mitgliedschaft in der Menge zu kennzeichnen.

Unscharfe Mengen können auch verwendet werden, um Grenzen um ungewisse Werte zu ziehen. Zusätzlich zu höheren und niedrigeren Werten können diese Grenzen auch beste Schätzungen enthalten. Es ist eine Möglichkeit, Sensitivitätsanalysen durchzuführen, wenn man wenig Informationen über die tatsächlichen Fehlerquellen und die Größe der Fehler hat. Am einfachsten wäre Folgendes: Alles, was wir brauchen, sind Werte, von denen wir es für sehr unwahrscheinlich erachten, größer oder kleiner als * zu sein. Diese niedrigeren und höheren Begrenzungen plus die beste Schätzung bilden eine Dreieckszahl. Eine Dreieckszahl wird geschrieben als (niedrigster vermuteter Wert, beste Schätzung, höchster vermuteter Wert).

*Man vergleiche mit dem Original. Das steht dort wirklich so! Wenn da etwas fehlt, weiß ich nicht, was. A. d. Übers.

Zum Beispiel wird die Anzahl der Säugetierarten durch die Rote Liste der IUCN mit 4629 Arten angegeben. Allerdings ist dieser Wert bekannt dafür, ein Gegenstand geschätzter Fehler zu sein, der normalerweise mit ± 10% angegeben wird.

Diese Bandbreite von Schätzungen der Anzahl der Säugetierarten kann durch eine unscharfe Dreieckszahl repräsentiert werden. Für die Anzahl der Arten lautet diese (4166, 4629, 5092), um die unteren und oberen Grenzen ebenso wie die beste Schätzung in der Mitte zu beschreiben. Die Abbildung oben rechts zeigt die unscharfe Zahl, die die Zählung aller Säugetierarten repräsentiert.

Alle normalen mathematischen Operationen können unter Verwendung von Dreieckszahlen durchgeführt werden. Das Endergebnis der Operation zeigt den wahrscheinlichsten Wert zusammen mit den zu erwartenden maximalen und minimalen Werten. Für die Prozedur von Additionen, Subtraktionen und Multiplikationen werden der niedrigste, der beste und der höchste Wert einfach addiert, subtrahiert oder multipliziert. Nehmen wir zwei unscharfe Zahlen, die Dreieckszahl

T1 = [L1,  B1,  H1]

und die Dreieckszahl

T2 = [L2,  B2,  H2],

wobei „L“, „B“ und „H“ der niedrigste [lowest], der beste und der höchste Wert sind. Die Regeln sind Folgende:

T1 + T2  =  [L1 + L2,  B1 + B2,  H1 + H2]

T1 – T2  =  [L1 – L2,  B1 – B2,  H1 – H2]  (Nicht korrekt ausgeführt, siehe unten. Zu schnell).

T1 * T2  =  [L1 * L2,  B1 * B2,  H1 * H2]

Dieser Teil ist also einfach. Für Subtraktion und Division ist es etwas anders. Der niedrigste mögliche Wert wird die niedrige Schätzung im Zähler und die hohe Schätzung im Nenner sein, und umgekehrt für den höchsten möglichen Wert. Also sieht die Division folgendermaßen aus:

T1 / T2 = [L1 / H2,  B1 / B2,  L2 / H1]

Und für die Subtraktion so:

T1 – T2  =  [L1 – H2,  B1 – B2,  H1 – L2]

Wie können wir nun unscharfe Dreieckszahlen anwenden, um zu sehen, was das IPCC macht?

Nun, die Klimasensitivität (in °C pro W/m²) oben in der magischen Formel des IPCC besteht aus zwei Zahlen – die durch eine Verdoppelung des CO2-Gehaltes erwartete Temperaturänderung und der dadurch erwartete zunehmende Antrieb. Für jede haben wir Schätzungen der wahrscheinlichen Bandbreite der Werte.

Von der ersten Zahl, also dem Antrieb durch eine Verdoppelung des CO2-Gehaltes, sagt das IPCC, dass sich ein zusätzlicher Antrieb von 3,7 W/m² ergibt. Die Endpunkte dieses Wertes sind wahrscheinlich 3,5 für den niedrigeren und 4,1 für den höheren Wert (Hansen 2005). Dies ergibt eine Dreieckszahl von (3,5; 3,7; 4,0) W/m² für die Änderung des Antriebs durch den doppelten CO2-Gehalt.

Die zweite Zahl, die Temperaturänderung durch die Verdoppelung des CO2-Gehaltes wird vom IPCC hier als die Dreieckszahl (2,0; 3,0; 4,5) °C angegeben.

Dividiert man die Sensitivität durch Verdoppelung durch die Änderung des Antriebs durch Verdoppelung, ergibt sich ein Wert der Temperaturänderung (∆T, °C) aus einer gegebenen Änderung des Antriebs (∆F, W/m²). Dies wiederum ist ebenfalls eine Dreieckszahl, und nach den Gesetzen der Division ergibt sie sich zu:

T1 / T2 = [L1 / H2, B1 / B2, L2 / H1] = [2.0 / 4.0,   3.0 / 3.7,   4.5 / 3.5]

also eine Klimasensitivität von (0,5; 0,8; 1,28) °C Temperaturänderung für jede Änderung des Antriebs in W/m². Man beachte, dass der zentrale Wert wie erwartet der autorisierte Wert von 3°C durch Verdoppelung des CO2-Gehaltes ist.

Betrachten wir jetzt, was dies in der realen Welt bedeutet. Das IPCC vergleicht die Änderung des Antriebs seit der „vorindustriellen Zeit“, die sie mit [dem Jahr] 1750 festlegen. Die Änderung des Antriebs seit 1750, ∆F, legt das IPCC hier mit einer Zunahme um (0,6; 1,6; 2,4) W/m² fest.

Die Multiplikation der Dreieckszahl für die Änderung des Antriebs (0,6; 1,6; 2,4) W/m² mit der Dreieckszahl der Sensitivität (0,5; 0,8; 1,28) °C pro W/m² ergibt die IPCC-Schätzung der Temperaturänderung, die man seit 1750 erwarten dürfte. Natürlich ist auch das eine Dreieckszahl, die wie folgt berechnet wurde:

T1 * T2 = [L1 * L2, B1 * B2, H1 * H2] = [0.5 * 0.6,  0.8 * 1.6,  2.4 *1.28]

Die endgültige Zahl, die IPCC-Schätzung der Erwärmung seit 1750 vorhergesagt durch ihre magische Formel liegt bei einer Erwärmung von (0,3; 1,3; 3,1) °C.

Lassen Sie mich das anders ausdrücken, es ist wichtig. Ein Vierteljahrhundert lang haben die AGW-Befürworter Millionen Stunden und Millionen Dollar in Studien und Computermodelle gesteckt. Außerdem knirscht und kracht es im Gebälk des gesamten IPCC-Apparates seit nunmehr fünfzehn Jahren, und das ist das Beste, was sie uns sagen können, für all das Geld und all die Studien und all die Modelle?

Der Berg kreißte und schlussfolgerte, dass wir seit 1750 eine Erwärmung irgendwo zwischen einem Drittel Grad und drei Grad gehabt haben… Das ist wirklich ein eindrucksvolles Stück Detektivarbeit, Lou…

Im Ernst? Das ist das Beste, was sie tun können, nach dreißig Jahren Studium? Eine Erwärmung zwischen einem Drittel Grad und drei Grad? Ich kann mir keine weniger falsifizierbare Behauptung vorstellen. Jede Erwärmung lässt sich mühelos in dieses Intervall einpassen. Egal, was passiert, sie werden immer den Erfolg für sich in Anspruch nehmen. Und das ist Nachhersage, nicht einmal Vorhersage. Huch!

Ich sage noch einmal, dass das Gebiet der Klimawissenschaft mit der Übernahme der durch nichts gestützten Behauptung in die falsche Richtung abgebogen ist, nämlich dass bei einem so gewaltig komplexen System wie dem Klima eine lineare Beziehung besteht zwischen der Änderung des Inputs und der Änderung der Operationsbedingungen. Die fundamentale Gleichung des konventionellen Paradigmas, ∆T = λ ∆F; die Grundbehauptung, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, stimmt einfach nicht.

Willis Eschenbach

Link: http://wattsupwiththat.com/2012/02/07/triangular-fuzzy-numbers-and-the-ipcc/

Übersetzt von Chris Frey




The Skeptics Case*

Was die Klimawissenschaftler der Regierung sagen


Abbildung 1: Die Klimamodelle. Falls sich der CO2-Gehalt verdoppelt (was bei der gegenwärtigen Rate frühestens 2070 oder 2100 der Fall sein kann) simulieren die Klimamodelle eine Temperaturzunahme wegen dieses zusätzlichen CO2 um 1,1°C × 3 = 3,3°C. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote1sym1

Die direkte Auswirkung ist gut verstandene Physik, die auf Laborergebnissen basiert und seit über einem Jahrhundert bekannt ist. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote2sym2

Rückkopplungen treten auf wegen der verschiedenen Arten, mit denen die Erde auf den direkten Erwärmungseffekt durch das CO2 reagiert. Die dreifache Verstärkung der Rückkopplungen basiert auf der um das Jahr 1980 entstandenen Hypothese oder der Vermutung, dass mehr Erwärmung durch CO2 zu größerer Verdunstung der Ozeane führt und das dieser zusätzliche Wasserdampf wiederum zu größerer Rückhaltung von Wärme führt, weil Wasserdampf das wesentliche Treibhausgas ist. Und zusätzliche Wärme ergibt noch mehr Verdunstung, und so weiter. Diese Verstärkung berechnen alle Klimamodelle. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote3sym3

Die Klimawissenschaftler der Regierung und die Medien erzählen uns oft etwas über die direkte Auswirkung von CO2, geben aber selten zu, dass zwei Drittel der von ihnen projizierten Temperaturzunahme aus der Verstärkung durch Rückkopplungen resultiert.

Was die Skeptiker sagen


Abbildung 2: Die Sichtweise der Skeptiker. Falls sich das CO2-Niveau verdoppelt, beträgt die daraus resultierende Temperaturzunahme etwa 1,1°C × 0,5 0,6°C. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote4sym 4

Die seriösen skeptischen Wissenschaftler stimmten immer mit den Klimawissenschaftlern der Regierung über die direkten Auswirkungen des CO2 überein. Der Streit dreht sich ausschließlich um die Rückkopplungen.

Die Rückkopplungen reduzieren die direkte Auswirkung zusätzlichen CO2, und zwar grob gesagt um etwa die Hälfte. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote5sym5. Die wesentlichen Rückkopplungen gibt es durch Verdunstung, Wasserdampf und Wolken. Im Besonderen kondensiert Wasserdampf zu Wolken, daher wird zusätzlicher Wasserdampf infolge des direkten Erwärmungseffektes von CO2 zusätzliche Wolkenbildung verursachen. Wolken reflektieren das Sonnenlicht zurück ins Universum und kühlen die Erde, so dass die allgemeine Erwärmung reduziert wird.

Es gibt buchstäblich Tausende von Rückkopplungen, von denen jede den direkten Erwärmungseffekt durch das CO2 verstärkt oder abschwächt. Nahezu jedes langlebige System wird durch Rückkopplungen bestimmt, die jede Reaktion auf Störungen dämpfen. Falls ein System stattdessen auf eine Störung mit Verstärkung reagiert, wird dieses System wahrscheinlich einen Kipp-Punkt erreichen und instabil werden (wie eine elektronische Rückkopplung, wenn ein Mikrophon seinen Lautsprechern zu nahe kommt). Das Klima der Erde ist langlebig und stabil – es geriet anders als die Venus niemals in ein „Runaway-Treibhaus“ – was stark vermuten lässt, dass die Rückkopplungen die Temperaturstörungen wie etwa von zusätzlichem CO2 dämpfen.

Was die Daten sagen

Die Klimamodelle haben sich im Wesentlichen während der letzten 30 Jahre nicht verändert und zeigen in etwa die gleiche Sensitivität zusätzlichen CO2, auch dann, wenn sie mit zunehmender Rechenleistung immer detaillierter gerechnet werden können.

  • Wie gut haben die Klimamodelle die Temperatur vorhergesagt?
  • Unterstützen die Daten eher die Klimamodelle oder die skeptische Sicht?

Lufttemperatur

Eine der frühesten und wichtigsten Vorhersagen wurde vor dem US-Kongress im Jahre 1988 von Dr. James Hansen präsentiert, dem „Vater der globalen Erwärmung“:

 

Abbildung 3: Hansens Vorhersagen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6sym6 vor dem US-Kongress 1988, verglichen mit den nachfolgenden tatsächlichen Temperaturen, gemessen durch NASA-Satelliten http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote7sym7.

Hansens Klimamodell hat ganz klar künftige Temperaturanstiege übertrieben.

Im Einzelnen hat sein Modell die Entwicklung nach Szenario C vorhergesagt, falls die menschlichen CO2-Emissionen ab 1988 drastisch zurück gefahren werden, so dass das CO2-Niveau bis zum Jahr 2000 gar nicht mehr steigen würde. Aber in Wirklichkeit ist die Temperatur nicht einmal so stark gestiegen, obwohl die CO2-Emissionen erheblich zugenommen haben – was bedeuten würde, dass die Klimamodelle die Auswirkung der CO2-Emissionen erheblich überschätzen.

Eine genauere Vorhersage durch Klimamodelle wurde 1990 im ersten Zustandsbericht des IPCC gemacht: http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote8sym8.

 

Abbildung 4: Vorhersagen des IPCC in seinem ersten Zustandsbericht 1990, verglichen mit den nachfolgenden Temperaturmessungen durch NASA-Satelliten

Das war vor nunmehr 20 Jahren, und die mittlere Rate der Zunahme liegt in Wirklichkeit noch unter dem niedrigsten Trend der vom IPCC vorhergesagten Bandbreite.

Ozeantemperaturen

Die Ozeane enthalten die große Masse der Wärme im Klimasystem. Ordentliche Messungen der Ozeantemperaturen gibt es erst seit Mitte 2003, als das ARGO-System in Betrieb genommen wurde. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote9sym9, http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote10sym10.

Abbildung 5: Vorhersagen von Klimamodellen http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote11sym11 der Ozeantemperatur im Vergleich mit den Messungen durch Argo http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote12sym12. Die Einheit der vertikalen Achse ist 1022 Joules (etwa 0,01°C)

Die Ozeantemperatur ist praktisch gleich geblieben seit dem Beginn ordentlicher Messungen und hat sich nicht so schnell erwärmt wie die Modelle vorhersagen.

Der atmosphärische Hotspot

Während Perioden mit globaler Erwärmung sagen die Klimamodelle ein bestimmtes Muster der atmosphärischen Erwärmung vorher; die bekannteste Veränderung ist eine Erwärmung in einer Höhe von 10 km über den Tropen, der „Hotspot“.

Der Hotspot ist das Zeichen der Verstärkung in ihrer Theorie (siehe Abbildung 1). Der Theorie zufolge entsteht der Hotspot durch zusätzliche Verdunstung, und der zusätzliche Wasserdampf transportiert wärmere und feuchtere Luft in Höhen, in denen zuvor kühle, trockene Luftmassen vorherrschend waren. Die Gegenwart eines Hotspots würde ein Zeichen der Verstärkung sein, und umgekehrt.

Atmosphärische Temperaturen wurden mit Wetterballonen seit den sechziger Jahren gemessen. Millionen Wetterballone ergaben während der vergangenen Jahrzehnte ein gutes Bild der atmosphärischen Temperaturen, einschließlich der Periode mit Erwärmung von den späten siebziger bis zu den späten neunziger Jahren. Diese wichtigen und entscheidenden Daten wurden durch das Klimaestablishment bis 2006 zurückgehalten und dann an obskurer Stelle veröffentlicht. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote13sym13. Hier sind sie:

 

Abbildung 6: Links sieht man die von Millionen Wetterballonen gesammelten Daten. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote14sym14. Rechts sieht man das, was den Klimamodellen zufolge hätte passieren sollen. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote15sym15. Die Theorie (jedenfalls die von den Klimamodellen angenommene) ist mit den Beobachtungen nicht kompatibel. In beiden Diagrammen zeigt die horizontale Achse die geographische Breite, die rechte vertikale Achse die Höhe in Kilometern.

In Wirklichkeit gab es keinen Hotspot, nicht einmal ansatzweise. Also gibt es in Wirklichkeit keine Verstärkung – die in Abbildung 1 gezeigte Verstärkung existiert nicht. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote16sym16

Ausstrahlung

Den Klimamodellen zufolge wird weniger Wärme in den Weltraum abgestrahlt, wenn sich die Erdoberfläche erwärmt (in wöchentlichem oder monatlichem Maßstab). Dies liegt nach der Theorie daran, dass die wärmere Oberfläche zu mehr Verdunstung führt und damit zu mehr Wärme schluckendem Wasserdampf. Dies ist der für die vermutete Verstärkung in Abbildung 1 verantwortliche Mechanismus der Wärmerückhaltung.

Satelliten haben die Ausstrahlung von der Erde während der letzten beiden Dekaden gemessen. Eine grundlegende Studie hat eine Verbindung hergestellt zwischen Änderungen der Temperatur an der Erdoberfläche und Änderungen der Ausstrahlung. Hier ist sie:

 

Abbildung 7: Ausstrahlung der Erde (vertikale Achse) im Vergleich zur Wassertemperatur (horizontal), gemessen durch die ERBE-Satelliten (oberer linker Graph) und wie von 11 Klimamodellen „vorhergesagt“ (andere Graphen). http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote17sym17. Man beachte, dass die Neigung der Graphen der Klimamodelle entgegen gesetzt der Neigung der Graphen der gemessenen Daten ist.

Dies zeigt, dass die Erde in Wirklichkeit mehr Strahlung aussendet, wenn die Oberfläche wärmer ist. Das ist genau das Gegenteil von den Vorhersagen der Klimamodelle. Dies zeigt, dass die Wärme den Klimamodellen zufolge viel zu stark zurück gehalten wird, und dass deren vermutete Verstärkung laut Abbildung 1 nicht existiert.

Schlussfolgerungen

Die Herkunft all dieser Daten hier ist unfehlbar angegeben – Satelliten, ARGO und Wetterballone. http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote18sym18

Die Luft- und Wassertemperatur zeigen, dass die Klimamodelle Temperaturanstiege übertreiben. Das Klimaestablishment schiebt diese Abkühlung auf bisher nicht entdeckte Aerosole, was für das bisherige Scheitern der Modelle verantwortlich sein könnte, aber diese Entschuldigung wird immer dünner – es wird immer noch nicht so viel wärmer, wie sie sagen, oder auf eine Art und Weise, die sie sagen. Andererseits ist der Anstieg der Lufttemperatur stärker ausgefallen als die Skeptiker nur wegen des CO2 gesagt haben. Die Entschuldigung der Skeptiker lautet, dass der Anstieg zumeist durch andere Faktoren ausgelöst worden ist – und sie weisen darauf hin, dass sich die Welt in einem fast gleichmäßigen Erwärmungstrend von 0,5°C pro Jahrhundert seit 1680 befindet (mit alternierenden, etwa 30 Jahre langen Perioden von Erwärmung und leichter Abkühlung). Hingegen gab es den massiven anthropogenen CO2-Ausstoß erst nach 1945.

Wir haben alle wesentlichen Vorhersagen der Klimamodelle mit den besten Daten verglichen:

Die Klimamodelle waren durch die Bank falsch. Der fehlende Hotspot und die Daten der Ausstrahlung beweisen beide unabhängig voneinander, dass die Verstärkung in den Klimamodellen in Wirklichkeit nicht vorhanden ist. Ohne die Verstärkung würden die Temperaturvorhersagen der Klimamodelle um mindestens zwei Drittel niedriger ausfallen. Dies würde erklären, warum sie die gegenwärtigen Luft- und Wassertemperaturen so überschätzt haben.

Also:

  • Die Klimamodelle haben fundamental versagt. Deren vorhergesagte dreifache Verstärkung durch Rückkopplungen ist in Wirklichkeit nicht existent.
  • Die Klimamodelle überschätzen die Temperaturanstiege infolge CO2 mindestens um einen Faktor drei.

Der Standpunkt der Skeptiker ist mit den Daten kompatibel.

Einige politische Punkte

Die hier präsentierten Daten stammen aus eindeutigen Quellen, sie sind sehr relevant, öffentlich zugänglich und von den besten Instrumenten gemessen. Und doch tauchen sie niemals in den Main-Stream-Medien auf – oder haben Sie jemals so etwas wie einige der Abbildungen hier darin gesehen? Das allein sagt doch schon, dass die „Debatte“ um Politik und Macht geht, und nicht um Wissenschaft oder Wahrheit.

Dies ist eine ungewöhnliche politische Sache, weil es eine richtige und eine falsche Antwort gibt und jeder wissen kann, welche zutrifft. Die Leute schreiten voran und emittieren CO2 in jedem Falle, also machen wir das Experiment: Entweder heizt sich die Erde bis 2050 um mehrere Grad auf, oder eben nicht.

Man beachte, dass die Skeptiker mit den Klimawissenschaftlern der Regierung über die direkte Auswirkung des CO2 übereinstimmen; Uneinigkeit herrscht lediglich über die Rückkopplungen. In der Klimadebatte geht es nur um diese Rückkopplungen, alles andere sind Nebenschauplätze. Und doch weiß das kaum jemand. Die Klimawissenschaftler der Regierung und die Main-Stream-Medien haben die Debatte auf die direkten Auswirkungen des CO2 verengt und auf Nebenschauplätze wie das arktische Eis, schlechtes Wetter oder Psychologie. Sie erwähnen fast niemals die Rückkopplungen. Warum ist das so? Wer hat die Macht, das zu steuern?

About the Author*

*Die Angaben zum Autor werden wegen der vielen Institutsbezeichnungen und aus Zeitgründen nicht übersetzt. Man kann leicht mehr über ihn durch die angegebenen Links erfahren. A. d. Übers.

Dr David M.W. Evans consulted full-time for the Australian Greenhouse Office (now the Department of Climate Change) from 1999 to 2005, and part-time 2008 to 2010, modeling Australia’s carbon in plants, debris, mulch, soils, and forestry and agricultural products. Evans is a mathematician and engineer, with six university degrees including a PhD from Stanford University in electrical engineering. The area of human endeavor with the most experience and sophistication in dealing with feedbacks and analyzing complex systems is electrical engineering, and the most crucial and disputed aspects of understanding the climate system are the feedbacks. The evidence supporting the idea that CO2 emissions were the main cause of global warming reversed itself from 1998 to 2006, causing Evans to move from being a warmist to a skeptic.

Inquiries to david.evans@sciencespeak.com.

Republished on www.wattsupwiththat.com

Dieser Artikel ist als .pdf einzusehen bei: TheSkepticsCase

============================================================

Anmerlungen

1) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote1anc

Allgemeiner: falls das CO2-Niveau x (in parts per million) ist, dann schätzen die Klimamodelle die Temperaturzunahme infolge des zusätzlichen CO2 verglichen mit dem vorindustriellen Niveau von 280 ppm mit 4,33 ln(x/280). Zum Beispiel ordnet dieses Modell einen Temperaturanstieg von 4,33 ln(392/280) = 1.46°C einer CO2-Zunahme bis heute auf 392 ppm zu.

2) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote2anc

Die direkte Auswirkung des CO2 bleibt für jede Verdoppelung des CO2-Niveaus die gleiche (d. h. logarithmisch). Berechnungen der gestiegenen Oberflächentemperatur infolge einer CO2-Verdoppelung variieren von 1,0°C bis 1,2°C. In diesem Dokument verwenden wir den mittleren Wert von 1,1°C; allerdings hat der Wert keine Bedeutung für die hier beschriebenen Argumente.

3) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote3anc

Das IPCC projizierte 2007 in seinem jüngsten Zustandsbericht eine Temperaturzunahme bei einer Verdoppelung des CO2-Gehaltes (genannt Klimasensitivität) in einer Größenordnung von 2,0°C bis 4,5°C. Der zentrale Punkt in ihrem Modell schätzt 3,3°C, was drei mal der direkten Auswirkung des CO2 von 1,1°C entspricht, also sagen wir der Einfachheit halber, dass ihre Übertreibung dreifach ist. Präziser, jedes Klimamodell hat eine etwas unterschiedliche effektive Verstärkung, aber allgemein liegen sie um 3,0.

4) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote4anc

Allgemeiner: falls das CO2-Niveau x (in parts per million) ist, dann schätzen die Skeptiker die Temperaturzunahme infolge des zusätzlichen CO2 verglichen mit dem vorindustriellen Niveau von 280 ppm mit 0,72 ln(x/280). Zum Beispiel ordnen die Skeptiker einen Temperaturanstieg von 0,72 ln(392/280) = 0,24°C einer CO2-Zunahme bis heute auf 392 ppm zu.

5) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote5anc

Die Auswirkung der Rückkopplungen lässt sich nur schwer mit einem empirischen Beweis nachweisen, weil es viel mehr Kräfte gibt, die die Temperatur beeinflussen als nur eine Änderung des CO2-Niveaus, aber es scheint eine Multiplikation irgendwo zwischen 0,25 und 0,9 zu sein. Der Einfachheit halber haben wir hier den Wert 0,5 benutzt.

6) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote6anc

Hansens Vorhersagen stehen hier (20. August 1988), Abb. 3a Seite 9347. In der Graphik hier werden Hansens drei Szenarien alle am gleichen Punkt gestartet Mitte 1987 – wir sind nur an Änderungen (Anomalien) interessiert.

7) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote7anc

Die hier gezeigte Temperatur der Erde ist durch NASA-Satelliten gemessen worden, die die Temperatur der Erde seit 1979 vermessen, betrieben von der University of Alabama in Huntsville (UAH). Satelliten messen die Temperatur 24/7 [?] in breiten Streifen von Land und Wasser in der ganzen Welt außer an den Polen. Während es bei den Satelliten einige Probleme bei der Anfangskalibrierung gab, sind diese seit Langem zu jedermann’s Zufriedenheit gelöst worden. Satelliten sind die verlässlichsten, ergiebigsten und am wenigsten verzerrten Instrumente der Menschen, um die Lufttemperatur seit 1979 zu messen. Dies ist eine unfehlbare Datenquelle, und jeder kann sich die Daten selbst von hier herunter laden (Vorgehensweise: …)

8) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote8anc

Erster Zustandsbericht des IPCC 1990, Seite 22  (www.ipcc.ch/ipccreports/far/wg_I/ipcc_far_wg_I_full_report.pdf) in der Zusammenfassung für Politiker, Abbildung 8 und zugehöriger Text für das Szenario weiter-wie-bisher (was tatsächlich passiert ist, da es bis heute keine signifikanten Kontrollen über und eine Abnahme der Emissionen gibt). „Unter dem Weiter-wie-bisher-Szenario (A) des IPCC bzgl. der Emission von Treibhausgasen wird die mittlere Rate der globalen Temperaturzunahme im kommenden Jahrhundert mit etwa 0,3°C pro Jahrzehnt geschätzt (mit einer Unsicherheit von 0,2°C bis 0,5°C)“

9) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote9anc

http://www.metoffice.gov.uk/weather/marine/observations/gathering_data/argo.html

10) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote10anc

Messungen der Ozeantemperatur vor dem ARGO-Programm sind praktisch wertlos. Zuvor wurde die Ozeantemperatur mit Eimern gemessen oder mit Bathythermographen (XBTs) – wobei es sich um nur einmal verwendbare, im Wasser absinkende Messsonden handelt, die Temperatur- und Druckdaten übermitteln. Fast alle diese Messungen erfolgten entlang der hauptsächlichen kommerziellen Schifffahrtsrouten, so dass die geographische Ausbreitung der Messungen ärmlich war – zum Beispiel wurden die riesigen südlichen Ozeane überhaupt nicht erfasst. XBTs reichen nicht so tief wie die ARGO-Bojen, und ihre Daten sind viel weniger präzise und viel weniger akkurat (u. a. weil sie sich zu schnell durch das Wasser bewegen, um in ein Gleichgewicht mit dem umgebenden Wasser zu kommen, dessen Temperatur gemessen werden soll).

11) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote11anc

Die Klimamodelle nehmen eine Zunahme des ozeanischen Wärmegehalts von etwa 0,7 × 10^22 Joules pro Jahr an. Siehe Hansen et al. 2005: Earth’s energy imbalance: Confirmation and implications. Science, 308, 1431-1435, Seite 1432 (pubs.giss.nasa.gov/cgi-bin/abstract.cgi?id=ha00110y), wobei die Zunahme des Wärmegehaltes in Quadratmeter Oberfläche in den oberen 750 m den typischen Modellen zufolge etwa 6,0 Watt/m² pro Jahr beträgt. Das wird zu 0.7 × 10^22 Joules pro Jahr für den gesamten Ozean, was hier erklärt wird.

12) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote12anc

Der Wärmegehalt der Ozeane bis zu einer Tiefe von 700 m gemessen durch ARGO ist jetzt verfügbar, man kann es von hier herunter laden. Die Zahlen zeigen die Änderungen des mittleren Wärmegehalts während drei Monaten in Einheiten von 10^22 Joules, jahreszeitlich angepasst. Das ARGO-System ging Mitte 2003 in Betrieb, daher beginnen unsere Daten im Juni 2003.

13)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote13anc

Die Daten der Wetterballone, die die Erwärmungsverteilung in der Atmosphäre zeigen, wurden schließlich 2006 veröffentlicht, und zwar im US Climate Change Science Program, Teil E von Abbildung 5.7 auf Seite 116 (www.climatescience.gov/Library/sap/sap1-1/finalreport/sap1-1-final-chap5.pdf). Es gibt keine anderen Daten aus dieser Zeit, und wir können keine weiteren Daten atmosphärischer Erwärmung erhalten, bis die globale Erwärmung wieder einsetzt. Dies sind die einzigen Daten, die es gibt. Übrigens, ist das nicht eine obskure Stelle, um so wichtige und entscheidende Daten zu veröffentlichen – Sie glauben nicht, dass sie etwas verbergen wollen, oder?

14)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote14anc

Siehe vorige Anmerkung.

15)http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote15anc

Jedes beliebige Klimamodell, zum Beispiel aus dem AR 4 des IPCC 2007, Kapitel 9, Seite 675. Man kann es auch im Internet einsehen, und zwar hier (Abbildung 9.1, Teile c und f). Es gab eine geringe Erwärmung von 1959 bis 1977, so dass die allgemein verfügbaren Simulationen von 1959 bis 1999 auch anwendbar sind.

16) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote16anc

Also beträgt der Multiplikationsfaktor in der zweiten Box der Abbildungen 1 und 2 höchstens 1,0.

17) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote17anc

Lindzen und Choi 2009, Geophysical Research Letters Vol. 36: http://www.drroyspencer.com/Lindzen-and-Choi-GRL-2009.pdf. Die Studie wurde nach einiger Kritik korrigiert, kommt aber im Wesentlichen 2011 wieder zum gleichen Ergebnis: www-eaps.mit.edu/faculty/lindzen/236-Lindzen-Choi-2011.pdf.

18) http://wattsupwiththat.com/2012/02/26/the-skeptics-case/ – sdendnote18anc

Im Einzelnen haben wir Ergebnisse von Thermometern an Land nicht genannt, oder von den vereinzelten Beispielen mit Eimern und XBTs auf dem Meer. Thermometer an Land sind notorisch empfänglich für lokale Effekte – siehe Is the Western Climate Establishment Corrupt? durch den gleichen Autor: jonova.s3.amazonaws.com/corruption/climate-corruption.pdf

Link: http://wattsupwiththat.com/2012/02/26/the-skeptics-case/

Autor: David M. W. Evans

Übersetzt von Chris Frey

*Die Überschrift wurde bewusst nicht übersetzt. Man könnte es mit „Der Fall der Skeptiker“ versuchen, aber das wäre schwer missverständlich. – A. d. Übers.




Wie der Schiefer-Boom in den USA die Welt verändern wird

Etwas Merkwürdiges auf dem Weg zu einer sauberen Energiezukunft ist im Gange – die Realität halt Einzug. Es gibt ‚unwiderlegbare Beweise’ über ökonomisches Wachstum und Arbeitsplätze schaffende Auswirkungen des Booms unkonventionellen Gases und Öls – über 600 000 Arbeitsplätze stehen direkt im Zusammenhang mit der Ausbeutung von Schiefergas. Selbst Präsident Obama lobt die Arbeitsplätze schaffenden Vorteile von ‚Amerikas Ressourcen-Boom’. Amerika erhält seinen Energieglücksbringer zurück, und das sind gute Nachrichten, aber nicht die ganze Geschichte.

Wieviel Schiefergas gibt es in den Vereinigten Staaten? Im Juli 2011 hat die EIA in den USA (Energy Information Administration) eine Übersicht der sich abzeichnenden Ressourcen veröffentlicht: Schiefergas und Schieferöl in den USA, gefördert von INTEK. Dies ist ein aktualisierter Zustandsbericht über technisch förderbares Erdgas und Erdöl in den 48 Kernstaaten. Dem Bericht zufolge finden sich die größten technisch erschlossenen Gasreserven im Nordosten (63%), an der Golfküste (13%) und im Südwesten (10%). Die größten Schiefergasfelder sind das Marcellus-Feld (410,3 Billionen Kubikfuß, 55 Prozent der gesamten Ressourcen), Haynesville (74,7 Billionen Kubikfuß, 10 Prozent der Gesamtmenge) und Barnett (43,4 Billionen Kubikfuß, 6 Prozent der Gesamtmenge). Der Bericht wurde erstellt, … um einen Anfangspunkt für die zukünftige Arbeit zu geben.

Die USA verfügen über dreimal so viel nachgewiesene Reserven an Schieferöl wie Saudi-Arabien.


Die globalen Schieferölreserven tragen mehr als 10 Billionen Barrel. Mehr als 1,8 Billionen Barrel liegen eingehüllt von Schiefer auf bundeseigenem Land in den westlichen USA, also in den Bundesstaaten Colorado, Utah und Wyoming, wovon 800 Milliarden als förderwürdig angesehen werden – dreimal so viel wie die nachgewiesenen Reserven in Saudi-Arabien. Der Bericht von INTEK für die EIA fand 23,9 Milliarden Barrel von technisch abbaubaren Schieferölreserven in den 48 Kernstaaten der USA. Das Monterey/Santos-Feld in Südkalifornien ist das größte Feld, und man schätzt, dass dort 15,4 Milliarden Barrel oder 64 Prozent der Gesamtmenge an Schieferöl liegen, gefolgt von den Feldern Bakken und Eagle Ford mit 3,6 bzw. 3,4 Milliarden Barrel Schieferöl.

Die Schaffung neuer Arbeitsplätze wird durch niedrige Energiekosten gefördert. In einem Bericht von PricewaterhouseCoopers für die National Association of Facturers heißt es, billiges nationales Erdgas wird die Herstellkosten in der Fertigungum 11 Milliarden Dollar pro Jahr während der nächsten 10 Jahre absenken sowie mehr als eine Million neuer Arbeitsplätze schaffen. Diese neue Niedrigkosten-Energiewirklichkeit wird das verfügbare Einkommen pro Haushalt um 2000 Dollar pro Jahr zunehmen lassen. Das Wachstum der nationalen Gaserzeugung aus unkonventionellen Quellen (Schiefergas) hat die Gaspreise in den USA vom Weltöl- und Flüssiggaspreis abgekoppelt, hat die Abhängigkeit der USA von Flüssiggasimporten umgekehrt und die Preise  nahe neuer Rekord-Niedrigwerte gedrückt für eine langzeitliche verlässliche heimische Energieversorgung.

Die Schaffung neuer Arbeitsplätze führt zu wachsenden Sorgen wegen des Fachkräftemangels und zu einem wilden Werben um Talente.

Gerade zu Beginn des Schiefer-Phänomens steht der Markt der seit langer Zeit lauernden Realität gegenüber, nämlich, dassmehr als 10 000 Menschen pro Tag aus den Babyboomjahren allein in den USA in den Ruhestand treten. Das gleiche Schicksal oder Schlimmeres droht den anderen globalen Märkten. Die gute Nachricht ist, dass die Nachfrage nach Erfahrung, Können und technologischem Expertenwissen bei den Arbeiternin der Öl- und Gasindustrie zum längeren Arbeiten überredet werden, oder ihre Erfahrung teuer verkaufen können, um ihre finanziellen Ruhestandsreserven aufzufüllen, die während der großen globalen Rezession gebeutelt wurden. Es wird erwartet, dass die Nachfrage nach erfahrenen Kräften die Reihen der Ingenieure, Entwicklungs-Techniker, , Wissenschaftler auffüllen wird, und sich auf die Mathematik-,  und Softwareprogrammierer- und Universitätsausbildung erstrecken wird, um die Nachfrage zu decken. Aber noch mehr werden Schweißer, Klempner, Elektriker, erfahrene Maschinisten und andere Handwerker gebraucht, um die notwendige technische Unterstützung sicherzustellen und die technologische Entwicklung weltweit zu unterstützen.

Auf dem freien Markt fossiler Brennstoffe wird die Kohle zugunsten von Erdgas zurückgedrängt.


Nachdem den fossilen Treibstoffen mit immer mehr Verordnungenein wahrer Krieg erklärt zur Unterminierung der Wirtschaft erklärt worden war und auch um die Unterstützung für billige Energie-Erzeugung zu schwächen, um die Nachfrage und damit die Emissionen zu reduzieren, sehen sich die Gegner fossiler Treibstoffe nun auch mit einer starken neuen Realität konfrontiert. Neue Verordnungen können die vorzeitige Schließung von Kohlekraftwerken erzwingen, aber deren Kapazität wird wahrscheinlich durch hoch effiziente erdgasbefeuerte nicht erneuerbare Energieersetzt. Niedrige Gaspreise sind für die Kohle eine viel größere Bedrohung als alles, wovon die EPA [die US-amerikanische Umweltbehörde] nur träumen kann. Es ist also kein schlechtes Ergebnis des freien Marktes, wenn ältere Kohlekraftwerke durch neuere, sauberere und billigere Erdgaskraftwerke ersetzt werden. Auch für die Umwelt ist das nicht schlecht. Inzwischen bleibt der EPA nichts anderes übrig, als ihre regulatorischen Übertreibungen schmerzlich zu bedauern, die sie in Zeiten ökonomischer Unsicherheit aufgehäuft hat und ihre vorsätzliche Unterminierung der amerikanischen Wachstums- und Produktivkraft. Die weniger effektiven älteren Kohlekraftwerke werden durch Erdgaskraftwerke im Lastfolgebetrieb zurückgedrängt. Erdgas ist der Treibstoff der Wahl in fast jedem Energiemarkt, und Gas wird als Reserve für jedes MW Erneuerbarer Energie gebraucht. Niedrige Gaspreise durch die zunehmende Produktion von Schiefergas macht Gas zur billigsten Quelle, was für fast jede Region das Beste ist.

Die verbrauchte Energie im Transportsektor wächst von 27,6 Billiarden Btu [British Thermal Unit] im Jahr 2010 auf 28,8 Billiarden Btu bis 2035, dem AEO2012-Referenz Szenario zufolge (Figure 7). Der Energieverbrauch leichterer Fahrzeuge [Light Duty Vehicles, LDVs] einschließlich kommerzieller Kleinlastwagen nimmt im Referenzszenario ab, und zwar von 16,5 Quadrillionen Btu im Jahr 2010 auf 15,7 Billiarden Btu im Jahr 2025. Dies ergibt sich durch die projizierte höhere Sparsamkeit im Treibstoffverbrauch von Autobahnfahrzeugen. Der projizierte Energieverbrauch für leichte Fahrzeuge nimmt nach 2025 auf 16,3 Billiarden Btu im Jahr 2035 zu.

Billiges Schiefergas treibt die Kosten für die Stabilisierung des Netzes durch Erneuerbare nach unten.


Die gleichen Marktkräfte, die alte Kohlekraftwerke verdrängen zugunsten einer neueren, sauberen, mit Erdgas befeuerten Generation von Kraftwerken beeinflussen auch die erneuerbare Energie, vor allem Wind und Solar. Die Flut von Solarpaneelen und Windturbinen, durch Überproduktion in China auf der Suche nach wachsendem Export auf den Markt geworfen, hat jetzt dazu geführt, dass europäische Regierungen Einspeisevergütungen und Subventionen verringert oder ganz gestrichen haben, weil dort fallende Preise die Preise für erneuerbare Energien auf die Ebene der Wettbewerbsfähigkeit mit Erdgas bringen würden. Aber die Realität sieht anders aus: Die infolge der Produktion von Schiefergas niedrigen Gaspreise drücken die Preise für den Paritätspunkt im Netznach unten. Regierungen in der EU, schwer gebeutelt von der Finanzkrise in der Eurozone, können sich die Subventionen für die Einspeisung nicht mehr leisten. Viele US-Bundesstaaten, die den Anteil an Erneuerbarer Energieerzeugung erhöhen wollten,, passen ihre Ziele an, nur wenige folgen Kalifornien bei dessen Führung zu  einem noch höheren Ziel von 33% RPS [California Renewables Portfolio Standard] (Anteil von Erneuerbaren an der Energieerzeugung). Unter dem Strich: Die Erneuerbaren werden zu einer vorwiegenden Energieerzeugungs-Quelle, wenn sie den Anschluss an oder nahe dem Netzparitätspreis finden, profitabel sind sie aber nur durch Subsidien. Die Konsolidierung fegt durch diesen Sektor, kleinere Teilnehmer werden von den großen globalen Spielern mit größeren Geldbeuteln übernommen.

Zähmung der bösen Buben in der Nachbarschaft.


Da das Potential und die Entwicklung von Schiefergas weltweit immer besser verstanden wird, ist ein subtiler giftiger Trend in Gang gekommen, während die zur Ausbeutung des Schiefergases notwendige Technologie und die Infrastruktur immer weiter verbessert wird. Die bösen Buben in jeder Region stehen plötzlich unter Druck von ihren Nachbarn, sich zu bessern. Warum? Der starke Wettbewerb zum technologischen Zugang ermöglicht es multinationalen Firmen, frei zu entscheiden, wo sie arbeiten – und sie wählen keine Stellen aus, an denen Aufrührer auf sie schießen, ihre Projekte zum Platzen bringen oder wo sie von ungehemmter Korruption ausgebeutet werden. Ein informeller Verhaltenskodex entwickelt sich, der jeden sich entwickelnden Markt nach seinem eigenen Potential zur Erzielung von Profiten durch die Technologie- und Infrastruktur-Lieferanten beurteilt. Das im Wettbewerb als nächstes zur Auswahl stehende Gebiet zwingt die Leute vor Ort dazu, ihr schlechtes Verhalten zu zügeln und ihren Platz in der Warteschlange zu verbessern. Zusammen mit niedrigen Preisen, die das schlimme Subventionspotential von Iran, Russland und anderen traditionellen Unheilstiftern reduzieren, und mit dem Wunsch zum Zugang zur benötigten westlichen Technologie von seiten der Staatenund Nationalen Großfirmen  sichern sich die erfahreneren politischen Führer in ihrer regionalen Nachbarschaft untereinander ab, um ihre Wirtschaften zum Wachstum zu bringen.

Wirtschaftliches Wachstum führt zu einer wachsenden Mittelklasse und zur Forderung auf weniger Korruption, mehr Reformen und dauerhaften demokratischen Änderungen. Die Entwicklung der Schiefergasförderung ist die Muttermilch für demokratische Änderungen, wie sie im arabischen Frühling deutlich werden, aber sie werden unterdrückt von den bösen Buben in der Nachbarschaft. Der Enthusiasmus für Wachstum verstärkt das Verlangen nach Änderung. Die Lektionen der Zähmung der bösen Buben in der Nachbarschaft kommen den Despoten nicht zugute. Einige wollen standhalten, sie werden durch eine Kombination von heimischem Verlangen nach Änderung und dem ‚Verhaltenskodex’ hinausgedrängt, der sie an den Schluss der Warteschlange drückt Die Gefahr, hinter der Welle globalen wirtschaftlichen Wachstums zurückzubleiben, erweist sich als zu stark, um ihr zu widerstehen.

Üppige Energievorräte reduzieren globale Konflikte.


Reichliche und gleichmäßig verteilte Energievorräte (Erdgas) reduzieren die Intensität des Wettbewerbs um neue Energiequellen für neue Kernstaaten wie Indien und China. Neue Treibstoffe auf die Märkte zu bringen, hat höhere Priorität als energiepolitische Abenteuer (Chinas Suche nach Energie in Afrika). Es erlaubt auch wichtigen globalen Spielern, sich auf das Wachstum ihrer Wirtschaft zu konzentrieren und nicht ihr Militär zu verstärken, um gegen Energieknappheit gewappnet zu sein.

Üppige Energievorräte lassen globale Konflikte zunehmen.


Neue Energiequellen und neue Technologie sorgen dafür, dass nationale Regierungen Ressourcen ausschöpfen, wo sie diese zuvor nicht ausschöpfen konnten. Diese neuen technologischen Möglichkeiten verstärken Konflikte auf lokaler, regionaler und globaler Ebene. Einheimische Gruppen, lokale Übelstände  und Autonomiebewegungen entstehen in den neuen, energiereichen Gebieten von selbst. Lange schwelende Grenzkonflikte werden neuen Zündstoff erhalten, wenn in diesen Gebieten neue reiche Energievorkommen gefunden werden. Die Regierungen werden die Ausbeutung in diesen Gebieten priorisieren aus Furcht, dass der Nachbar ihre eigenen Lagerstätten anzapft..

Technologische Implikationen

Nationale Öl- und Gasgesellschaften werden gezwungen, sich im Wettbewerb um horizontale Bohrungs- und Fracking-Technologien und die Ausrüstung zu bewerben. Mit vielen Schiefergasquellen verlieren große und die Riesen-Unternehmen das Interesse, mit so mancher Nationalen Öl-Gesellschaft zusammen zu arbeiten, mit der es traditionell schwierig war oder die zuviel Profit abhaben wollte.

Der Zugang zu Wasser erweist sich als eine der größten Herausforderungen bei der Erzeugung von Schiefergas.


Der Widerstand gegen den Verbrauch von Trinkwasser für das Fracking vor allem in ariden Gebieten wie dem Nahen Osten, wo das Wasser wertvoller ist, wächst immer mehr. Dies führt zu Investitionen in die Infrastruktur, um recyceltes Wasser nutzbar zu machen sowie in die Entsalzung vor allem von Brackwasser. Mit der sich erweiternden Infrastruktur werden die Wasserspeicherung, die Überwachung und die Verteilersysteme effizienter, und weniger Wasser geht durch Lecks verloren, vor allem aus alten Systemen.

Der Nahe Osten wird zu einem Labor für die Entwicklung neuer Energien mit kombinierten Wärme- und Stromprojekten sowie Mikronetzen, die die Entwicklung von Schiefergas stützen. Der erweiterte Gebrauch von Solarpaneelen für Anwendungen in kleinen Bereichen profitiert von den fallenden Preisen der in China hergestellten Paneele. Die Nachfrage nach so viel neuer Energie und Umweltinfrastruktur rückt den Nahen Osten ins Zentrum der Entwicklung sauberer Energie und der Entwicklung der entsprechenden Technologie. Dadurch werden Investitionen von China und anderen beflügelt, die auch darauf brennen, Zugang zu fortgeschrittener Technologie zu bekommen, um ihre eigenen Schiefervorkommen zu erschließen.

Die wachsende Nachfrage nach Technologie bedroht konventionelles Wissen und überwindet herkömmliche Geschäftsmodelle.

Die globalen Großunternehmen und die Führer in der Technologie horizontaler Bohrungen schaffen einen Wettbewerbsmarkt für ihre Dienste und zwingen die Nationen sich um Zusammenarbeit mit ihnen zu bemühen anstatt der traditionellen staatlichen Ausschreibungen und Konzessionsvergaben.

Die Öl- und Gas-Geschäftsmodelle verschieben sich vom Besitz des Produktes zur Bereitstellung der Technologie und sich mit handelbaren Anteilen von nachgewiesenen Reserven bezahlen zu lassen. Dies führt zu großen Beständen an verteilten „Schiefer“-Reserven als handelbare Gütermit denen Risiken ausgeglichen, Potenzial bezahlt und beschleunigtes Wirtschaftswachstum in einem offenen Markt belohnt wird, anstelle durch die von OPEC Russland oder Quatar dominierten Monopole oder durch die Nationalen Öl-Gesellschaften. In diesem Wettbewerbsmärkten bleiben böse Buben wie Iran, Venezuela und andere draußen vor, sind sie doch nicht in der Lage, in offenen Märkten zu bestehen und unfähig, die ansässigen Firmen zu erpressen, wenn diese damit drohen, wegzuziehen oder anderswo nach besseren Möglichkeiten zu suchen. Adere Märkten wie Mexiko, wo selbst auferlegte Hindernisse für Investitionen von außen oder Übernahmen durch ausländische Eigentümer dafür gesorgt haben, dass das Wachstum unterminiert worden ist und der Zugang zur Technologie begrenzt wurde,  finden in offenen Märkten einen Ausweg aus der Falle und ergreifen ihre Chance durch die Nachfrage nach neuer Technologie, um ihre Exploration und Förderung zu steigern und nutzen den globalen Börsenhandels, und bezahlen für die Entwicklung ihrer Entwicklungs- und Fördertechnologie mit handelbaren Kontrakten auf die zukünftige Produktion und Reserven.

Investitionen in die Entwicklung von Technologien und Infrastruktur steigen sprunghaft,


da jeder regionale Markt danach trachtet, seinen Platz in der Warteschlange zu verbessern und nach neuen Technologie-Firmen  sucht, die von den Energie-Riesen Geschäft abziehen wollen, indem sie neuen in diesem Sektor tätigen Firmen bessere Bedingungen bieten.  Tatsächlich wird dieser wachsende Markt neuer Energietechnologie von den Energie-Riesen, den Staatsfonds undtraditionellen Energieanbietern finanziert., die Zugang zu diesen neuen Technologien suchen.

Die sich allmählich ausbreitende Auswirkung des Explorations- und Produktions-Wachstums lässt das globale Bruttoinlandsprodukt wachsen, ermutigt Investoren, führt Millionen aus der Armut und intensiviert die Forderung nach demokratischen Reformen, um nachhaltiges Wachstum sicherzustellen.

Die mit der Entwicklung der Exploration und Produktion von „Schiefer“-Ressourcen verbundenen globalen finanziellen Auswirkungen

PriceWaterhouseCoopers berichtete, dass in den ersten drei Quartalen des Jahres 2010 das Umsatzvolumen von Firmenfusionen und Übernahmen (Mergers and Acquisitions) auf 20,1 Milliarden Dollar gestiegen ist, gegenüber 6,8 Milliarden Dollar im gleichen Zeitraum des Jahres 2007. Dieser Umsatzvolumenzuwachs ist das Ergebnis einer Hebelung der Finanzkraftseitens der  Energieriesen im „Schiefer“-Geschäft und die „Schiefer-Marktsektor“-Reserven wurden von „wilden“ privaten Ölbohrern und von kleinen unabhängigen Firmen wie Mitchell Energy angetrieben, die sich auf horizontale Bohrung und Fracking spezialisiert hat, um sich den eigenen Markt zu erschließen und nicht mit den Energieriesen im Wettbewerb stehen zu müssen. Aber das Wachstum in der Exploration und Produktion von unkonventionellem Öl- und Gas hat die Riesen  sowie andere Investoren angezogen, die alle von dem steigenden „Schiefer“-Markt profitieren wollen. Heute sind große Ölgesellschaften große Investoren in „Schiefer“, haben sie doch das Wachstumspotential erkannt, das sie mit Hebelwirkung benutzen als Alternative zu konventionellen Öl- und Gas-Vorkommen , die durch zunehmende Umweltbeschränkungen und rapide abnehmende Förderraten gekennzeichnet sind. Tatsächlich hat das Wachstum bei unkonventionellem Öl und Gas längst den Rückgang bei der Förderung aus amerikanischen Reserven wettgemacht.

Etwa ein Drittel der gesamten, in den USA verbrauchten Energiemenge, 23,4 Trillionen Btu, waren 2010 im Industriesektor verbraucht worden. Verglichen mit dem AEO2012-Referenzszenario wird der gesamte industrielle Energieverbrauch um 16 Prozent wachsen, von 23,4 Trillionen Btu im Jahr 2010 bis 27,0 Trillionen im Jahr 2035. Der größte Energieverbraucher ist die großchemische Industrie im Industriesektor mit einem Verbrauch von 21 Prozent der gesamten im Jahre 2010 verbrauchten Energie. Bis zum Jahr 2026 jedoch wird die Raffinerie-Industrie, definiert als Einrichtungen zur Erzeugung von Petroleum, Biotreibstoffen und Kohleverflüssigung unter Einbezug des Eigenverbrauchs zur größten Energie verbrauchenden Industrie im AEO2012-Referenzzeitraum.

Die energieintensiven Fertigungs-Industrien zusammen, wie z.B. die Großchemie, Raffinerien, Papierprodukte, Eisen und Stahl, Aluminium, Nahrung, Glas und Zement erzeugen etwas mehr als ein Viertel des Gesamtwertes der Industrieproduktion bei einem Anteil von etwa zwei Dritteln des gesamten Energieverbrauchs im Industriesektor.  Obwohl erwartet wird, dass sich die energieintensiven Industrien von der jüngsten Rezession erholen werden, wird sich ihr langzeitliches Wachstum verlangsamen, und zwar wegen des zunehmenden internationalen Wettbewerbs und einer Verschiebung der in den USA erzeugten Verbrauchsgüter hin zu höherwertigen Gütern. Der Dollarwert der Auslieferung  von Gütern der energieintensiven Industrien wächst von 2010 bis 2035 um 29 Prozent im AEO2012-Referenzfall, während der Wert der nicht von energieintensiven Industrien stammenden Güter um 57 Prozent zunehmen wird. Als Ergebnis der Verlagerung hin zu einer nicht so energieintensiven Produktion nimmt der Energieverbrauch langsamer zu als die Auslieferungen, und die Energieintensität industrieller Produktion geht zurück.

Niedrige Energiepreise sorgen auch für Energiesicherheit, wenn eine zuverlässige Versorgung durch die Verminderung von Amerikas Abhängigkeit von Öl- und Gasimporten aus dem Nahen Osten gewährleistet ist und durch die Verminderung der  Ölpreisschwankungen, weil die Nachfrage durch „Schiefer“ über breiter angelegte Liefermöglichkeiten verteilt wird.Niedrige Energiepreise vor allem beim Öl unterminieren die Wirtschaft der OPEC-Staaten und reduzieren ihre geopolitische und globale wirtschaftliche Macht. Dies kann zu einer Änderung der US-Außenpolitik führen, und zwar hin zu Prioritäten weg vom Mittleren Osten.

By. Gary L. Hunt

Link: OilPrice.com, 15 February 2012

Übersetzt von Chris Frey unter Mithilfe von Helmut Jäger




Neue Studie: Eine hoch aufgelöste Karte der Massenbilanz zeigt „von 1979 bis 2010 keinen signifikanten Trend der antarktischen Eisbedeckung“

Bild rechts: Zeitserie von SMB-Komponenten (SMB = Surface Mass Balance), integriert über den Eisschild einschließlich des Schelfeises für die Periode 1979 bis 2010 (alle in Gt y#-1). Schneefall (schwarze durchgezogene Linie) wird auf der linken Achse gezeigt, zusammen mit der SMB (Balken), die anderen Komponenten werden auf der rechten Achse angezeigt.

Eine neue, hoch aufgelöste Oberflächen-Massenbilanz der Antarktis (1979 bis 2010) auf Basis regionaler atmosphärischer Klimamodellierung

J. T. M. Lenaerts, M. R. van den Broeke, W. J. van de Berg, E. van Meijgaard,
und P. Kuipers Munneke
Received 17 January 2012; accepted 21 January 2012; published 21 February 2012.

Abstract: (1) Eine neue, hoch aufgelöste (27 km) Karte der Oberflächen-Massenbilanz (SMB) des antarktischen Eisschildes wird präsentiert. Sie basiert auf den Ergebnissen eines regionalen atmosphärischen Klimamodells, in das auch die Physik von Schneewehen eingegangen ist, ebenso wie die jüngsten Daten einer Neu-Analyse des Europäischen Zentrums für Mittelfristige Wettervorhersage (ECMWF), ERA-Interim (1979 bis 2010). Die SMB-Karte bestätigt Zonen mit hoher Akkumulation auf der Westseite der antarktischen Halbinsel (über 1500 mm pro Jahr) und der Küste der Westantarktis (über 1000 mm pro Jahr). Niedrige SMB-Werte zeigen sich in weiten Gebieten des innerantarktischen Eisschildes (unter 25 mm pro Jahr). Die Örtlichkeit und das Ausmaß von Gebieten der Abtragung werden realistisch modelliert.

Die modellierte SMB steht in guter Übereinstimmung mit ±750 in-situ SMB-Messungen (R = 0,88), ohne dass es einer nachträglichen Kalibrierung bedarf. Die mittlere SMB integriert über den gesamten Eisschild einschließlich des Schelfeises wird mit 2418 ± 181 GT pro Jahr geschätzt. Der Schneefall zeigt eine moderate jährliche Variabilität (s = 114 Gt pro Jahr), aber einen ausgeprägten jahreszeitlichen Zyklus (s = 30 GT pro Monat) mit dem Maximum im Winter. Der wesentliche Prozess der Abtragung ist die Sublimation von Triebschnee, der ebenfalls im Winter maximal ist, aber mit geringer jährlicher Variabilität (s = 9 Gt pro Jahr).

Referenz: Lenaerts, J. T. M., M. R. van den Broeke, W. J. van de Berg, E. van Meijgaard und P. Kuipers Munneke (2012): A new, high-resolution surface mass balance map of Antarctica (1979–2010) based on regional atmospheric climate modeling, Geophys. Res. Lett., 39, L04501, doi:10.1029/2011GL050713.

Und hier kommt der Schlüsselsatz: (15) Wir haben im Zeitraum 1979 bis 2010 keinen signifikanten Trend in den Komponenten der Massenbilanz gefunden, was die Ergebnisse von Monaghan et al. (2006) bestätigt. Der geschätzte SMB-Trend, integriert über den Eisschild, ist etwa gleich 3+/-2 Gt/y^-2.

Anthony Watts

Die ganze Studie findet man hier.

Link: http://wattsupwiththat.com/2012/02/20/new-paper-a-high-resolution-surface-mass-balance-map-of-antarctica-shows-no-significant-trend-in-the-1979-2010-ice-sheet/

Übersetzt von Chris Frey




Betrug durch weglassen: Erdrückende Beweise für die Sonne als Klimatreiber werden mit einem einzigen Satz abgehandelt

Expertenbegutachtung” des ersten Entwurfs von AR 5, abgeschlossen am 10. [Februar]. Der erste Absatz meiner übermittelten Kritik lautet:

Mein Fachgebiet ist die Wirtschaft, wo wir mit dem, was Statistiker das „ausgelassene Variablen-Problem“ [=das problem nicht berücksichtigter Variablen] (oder wenn es mit Absicht passiert, „Betrug durch Auslassung“), sehr vertraut sind. Immer wenn eine aussagekräftige Variable aus einer statistischen Analyse entfernt wird, ergibt sich ein Missverhältnis zu den korrelierenden Variablen, die analysiert werden. Dieses Problem manifestiert sich auf höchster Ebene beim AR 5 und erscheint in jedem Schritt ihrer Analyse.

Wie jeder andere, der an dieser Begutachtung teilnimmt, habe ich zugestimmt, nichts aus dem Entwurf zu zitieren, zu benennen oder bekannt zu machen. Das IPCC forderte noch etwas, wofür man aber nicht die Zustimmung der Begutachter verlangt hatte, nämlich dass wir „die Inhalte des Entwurfs nicht in öffentlichen Foren wie z. B. Blogs diskutieren“.

Angesichts dessen, was ich gefunden habe – systematischen Betrug – wäre es unmoralisch, dieser Forderung, der ich nicht zugestimmt habe, zu entsprechen, und weil es in meinen Kommentaren darum geht, was ausgelassen worden ist, ist es einfach genug, den Betrug offen zu legen ohne aus dem Entwurf zu zitieren.. Meine gesamte Begutachtung (4700 Wörter) enthält nur ein halbes Dutzend Zitate, die hier ohne Weiteres ersetzt werden können durch Beschreibungen des gemeinten Materials. Zitierte Nummern der Abschnitte kann man ebenfalls leicht durch Beschreibungen der Dinge ersetzen, um die es geht. Hier folgt also mit Erlaubnis von Anthony Watts der Rest meines minimal veränderten Kommentars:Einführung zur Kritik am  „Betrug durch Auslassung”

In der untersuchten Periode von 1750 bis 2010 korrelierten zwei Parameter sehr stark mit der beobachteten Erwärmung (und daher auch untereinander). Die magnetische Aktivität der Sonne und der atmosphärische CO2-Gehalt zeigten beide während dieser Periode nach oben, und beide erreichten wesentlich höhere Niveaus in der zweiten Hälfte des 20. Jahrhunderts. Diese beiden Korrelationen mit dem Temperaturanstieg führten zu den zwei wesentlichen, mit einander konkurrierenden Theorien zur Erwärmung im 20. Jahrhundert. Wurde er ausgelöst durch die rapide zunehmende menschliche CO2-Emission oder durch das 80-jährige „Große Maximum“ der Sonnenaktivität, die in den frühen zwanziger Jahren begonnen hat? (“Grand minima and maxima of solar activity: new observational constraints,” Usoskin et al. 2007.)

Die empirischen Beweise zugunsten der Sonne sind überwältigend. Dutzende wissenschaftlich begutachteter Studien haben einen sehr hohen Grad der Korrelation (0,5 bis 0,8) zwischen der solarmagnetischen Aktivität und der globalen Temperatur gefunden, und zwar bis viele tausend Jahre in die Vergangenheit (Bond 2001, Neff 2001, Shaviv 2003, Usoskin 2005 und viele andere, die unten gelistet sind). Mit anderen Worten, die Sonnenaktivität „erklärt“ im statistischen Sinne 50% bis 80% vergangener Temperaturänderungen.

Ein so hoher Korrelationsgrad über so lange Zeiträume impliziert Kausalität, die es nur in eine Richtung geben kann. Die globale Temperatur kann nicht die Sonnenaktivität beeinflussen, also muss es einen Mechanismus geben, wie die Sonnenaktivität globale Temperaturänderungen treibt oder moduliert. Der hohe Korrelationsgrad legt auch nahe, dass die Sonnenaktivität der Haupttreiber der globalen Temperatur in jedem untersuchten Zeitraum ist (was ziemlich genau jedem Zeitscale entspricht außer dem Milankovitch-Zyklus).

Im Gegensatz dazu zeigen Aufzeichnungen des CO2-Niveaus und der Temperatur keinen erkennbaren Erwärmungseffekt des CO2. Es gibt eine Korrelation zwischen atmosphärischem CO2 und der Temperatur, aber mit Änderungen des CO2-Gehaltes, die einer Temperaturänderung nachfolgen mit einer Zeitverzögerung von im Mittel 800 Jahren (Caillon 2003), was darauf hindeutet, dass es die Temperaturänderung ist, die über den atmosphärischen CO2-Gehalt bestimmt (was logisch erscheint, da sich erwärmende Ozeane weniger CO2 enthalten können). Dies schließt nicht aus, dass das CO2 auch die Temperatur treibt, und in der Theorie sollte eine Verdoppelung des CO2-Gehaltes eine Temperaturerhöhung um etwa 1 °C ergeben, bevor Rückkopplungseffekte einwirken, aber diese Rückkopplungen können auch negativ sein (Dämpfung anstatt Verstärkung eines Antriebs der Temperatur). Also gibt es nur mit dem, was wir über den Treibhausmechanismus wissen, keinen Grund anzunehmen, dass das CO2 ein signifikanter Mitspieler ist. Eines können wir sicher sagen, wie auch immer ein Erwärmungseffekt durch CO2 aussieht, er ist in den Rohdaten CO2 zu Temperatur nicht erkennbar.

Dies ist ein greller Gegensatz zur Sonnenaktivität, welche in den Rohdaten wie eine Neonlampe aufleuchtet. Es gibt buchstäblich Dutzende von Studien, die eine Korrelation von 0,5 bis 0,8 mit der Temperatur finden. Wie kommt es aber dann, dass die gegenwärtige Generation von GCMs des IPCC mit der Hypothese beginnen, dass das CO2 den Planeten seit 1750 40 mal so stark erwärmt hat wie die Sonnenaktivität? Das ist im AR 5 das Verhältnis der Abschätzung des Strahlungsantriebs für Variationen des CO2-Gehaltes und der Variation der gesamten Auswirkung der Sonnenaktivität zwischen 1750 und 2010, gelistet in (der Tabelle der RF-Antriebe im Kapitel über menschliche und natürliche Antriebe der Temperatur). RF für CO2 geht ein mit … W/m², während die RF des gesamtsolaren Effekts mit … W/m² eingeht. (ich werde nicht die aktuellen Zahlen nennen, aber ja, die Rate beträgt erstaunliche 40 zu 1, eine Steigerung von 14 zu 1 aus dem AR 4. Hierin wird der totale solare Antrieb mit 0.12 W/m² angegeben und 1,66 für CO2).

Man vermutet also, dass der 50%-Antrieb der globalen Temperatur, wie er sich aus Bergen von Temperaturkorrelationsdaten ergibt, lediglich zu 1/40 zur Erwärmung beiträgt im Vergleich zu etwas, dessen Erwärmungseffekt in den Temperaturaufzeichnungen nicht einmal ansatzweise erkennbar ist. Dies steht auf der Seite der Eingabe in die GCMs. Die Modelle nutzen ihre Gigaflops an Compuermacht nicht um herauszufinden, dass das CO2 einen viel größeren Erwärmungseffekt hat. Die Erwärmung wird einfach festgelegt. Müll rein – Müll raus [schwer zu übersetzendes Wortspiel: Garbage in – Garbage out].

Das „Wie” ist sehr einfach. Der 40 mal größere Erwärmungseffekt durch das CO2 beruht auf einem eklatanten Betrug durch Auslassung von Variablen. Wie ich vollständig zeigen werde, wird jeder Beweis für einen starken Antrieb der Sonnenaktivität einfach vom AR 5 übergangen. Von den zahlreichen sorgfältigen empirischen Studien, die eine hohe Korrelation zwischen der Sonnenaktivität und dem Klima zeigen, werden nur vage drei Studien erwähnt, und zwar in einem einzigen Satz des gesamten Erstentwurfs. Auf (Seite …, Zeile … im Kapitel über Aerosole und Wolken) gibt es eine kleine Referenz zu drei Studien, die nicht spezifizierte Korrelationen mit einigen Klimavariablen gefunden haben, ohne Erwähnung der dramatischen Größenordnung dieser Korrelationen oder einen Hinweis auf den Bereich und die Wiedergabe der Ergebnisse. Und das war’s! Nicht ein einziger weiterer Hinweis im gesamten Bericht. Jemand, der den AR 5 von vorne bis hinten durchliest, würde nicht einmal einen Hinweis darauf erhalten, dass es seit mehr als zehn Jahren eine veritable Flut von Studien gibt, die ergeben, dass die Sonnenaktivität etwa in der Größenordnung der Hälfte der Temperaturvariation in der Vergangenheit erklären kann, wenn nicht die gesamte Variabilität. Die Auslassung ist nahezu vollständig.

Als Folge wird fast die gesamte Erklärung der solarmagnetischen Aktivität zur korrelierten CO2-Variablen fehlinterpretiert. Diese Fehlinterpretation kann man sowohl in den analytischen Diskussionen im AR 5 finden als auch in den statistischen Abschätzungen und Projektionen, und der Fehler könnte keine größeren Konsequenzen haben. Sollte es die solarmagnetische Aktivität sein, die das Klima treibt, dann enthält das jüngste Abgleiten der Sonne in eine ausgeprägte Ruhephase das Potential einer fortwährenden globalen Abkühlung, möglicherweise rasch und durchgreifend; und anders als eine Erwärmung ist eine Abkühlung tatsächlich gefährlicher und kann sich selbst in eine Abwärtsspirale rückkoppeln.

Nichts könnte unter diesen Umständen perverser sein als die moderne Welt in einen abscheulichen Heiligen Krieg gegen das CO2 zu führen. Der Betrug des IPCC durch Auslassen muss aufhören. Die Fehlinterpretation von AR 5, die die Erwärmung im 20. Jahrhundert auf das CO2 zurückführt, muss aufhören. Die Beweise für die solarmagnetische Theorie sind überwältigend. Die einzige Unterstützung für die CO2-Theorie liegt in der Tatsache, dass die darauf beruhenden Modelle einigermaßen zu den letzten paar Jahrhunderten der Temperaturgeschichte passen, aber nur, weil das CO2 grob mit der Sonnenaktivität während dieser Periode korreliert, während sich die Modelle selbst durch ihren nachweislichen Betrug durch Auslassung selbst ungültig machen. Falls man die Erwärmung ganz auf solarmagnetische Effekte zurückführt, wie es die Beweise nahelegen, dann bleibt für die Erwärmung durch CO2 fast nichts mehr übrig.

Angesichts der fast mit Sicherheit sowohl substantiell größeren als auch in Richtung Abkühlung weisenden Auswirkungen [der Sonnenaktivität] im Gegensatz zu den CO2-Effekten ist er erwartete externe CO2-Wert eindeutig positiv. Wenn überhaupt, sollten wir die Zunahme des CO2-Gehaltes in der Atmosphäre subventionieren und vorantreiben. Das ist genau das Gegenteil dessen, was in der Eingangsbehauptung des AR 5 steht, nämlich dass Entwicklungen seit AR 4 „… (Zusammenfassung: Die Wissenschaftler sind sich sicherer denn je {vielleicht wegen des Fehlens jeglicher Erwärmung im 21. Jahrhundert?}, dass die Auswirkungen menschlicher Aktivitäten die hauptsächliche Klimasorge sind.)“

Als jemand, der die wissenschaftlichen Fehler in diesem katastrophalen Bericht erkennt, kann ich zumindest versichern, dass das Ganze ordnungsgemäß den Autoren des AR 5 unterbreitet wird. Folglich dokumentiere ich so prägnant wie möglich das Weglassen der solaren Magnetaktivität und die daraus resultierenden Irrtümer. Die Diskussion ist substantiell, aber ich bin unter der Grenze der Zeichenanzahl für einen einzelnen Kommentar geblieben. Dieser Kommentar wird als Kommentar auf höchster Ebene an AR 5 als Ganzes übermittelt, und er wird unverändert als Kommentar an die drei Unterkapitel geschickt, in denen der weggelassene solarmagnetische Beweis eigentlich erwähnt werden sollte: …, …, … (je ein Vorwort zu den Kapiteln über Paläodaten, über Wolken und Aerosole und den Strahlungsantrieb).

Ein Beispiel des weg gelassenen Beweises

Hier folgt eine Liste mit einigen der prominentesten und überzeugendsten Studien, die eine starke Korrelation zwischen der Sonnenaktivität und dem Klima gefunden haben, zusammen mit einer unvollständigen Sammlung ähnlicher Ergebnisse; insgesamt zwei Dutzend Erwähnungen. Es wäre einfach, zwei Dutzend weitere zu listen, aber das Ziel hier ist lediglich die Dokumentation eines Beispiels weg gelassener Beweise, um an vorderster Stelle deren Existenz und Gültigkeit zu belegen. Kurze Beschreibungen der Ergebnisse in zehn der Studien sind darin enthalten. Keine der beobachteten Korrelationen wird irgendwo im AR 5 erwähnt. Die ersten vier sind diejenigen, die ich oben angesprochen habe:

Bond et al. 2001, “Persistent Solar Influence on North Atlantic Climate During the Holocene,” Science.

Auszug aus Bond: „während der letzten 12 000 Jahre stand nahezu jede Zunahme des Treibeises im Zeitmaßstab von einem Jahrhundert im Nordatlantik im Zusammenhang mit einem ausgeprägt variablen und alles in allem verringerten solaren Output“.

Neff et al. 2001, “Strong coherence between solar variability and the monsoon in Oman between 9 and 6 kyr ago,” Nature.

Ergebnis von Neff: Korrelationskoeffizienten von 0,55 und 0,60.

Usoskin et. al. 2005, “Solar Activity Over the Last 1150 years: does it Correlate with Climate?” Proc. 13th Cool Stars Workshop.

Auszug aus Usoskin: „Die langzeitlichen Trends der Solardaten und der Temperaturen der Nordhemisphäre haben einen Korrelationskoeffizienten von etwa 0,7 bis 0,8 mit einem Vertrauensbereich zwischen 94% und 98%“.

Shaviv and Veizer, 2003, “Celestial driver of Phanerozoic climate?” GSA Today.

Auszug aus Shaviv: „Wir sehen, dass mindestens 66% des Trends der Paläotemperaturen den Variationen des CRF (Cosmic Ray Flux = kosmischer Strahlungsfluss) zugeordnet werden können, wahrscheinlich wegen des Durchgangs unseres Sonnensystems durch die Spiralarme der Galaxie“. (Nicht strikt wegen der Sonnenaktivität, aber implizit durch GCR oder CRF, die die Sonnenaktivität modulieren).

Viele der Anti-CO2-Alarmisten kennen dieses Zeug. Mike Lockwood und Claus Fröhlich zum Beispiel, die in ihrer Studie aus dem Jahr 2007 mit dem Titel: „Jüngste entgegengesetzte Trends der solaren Klimaantriebe und die globale mittlere Temperatur an der Erdoberfläche“ (Proc. R. Soc. A) mit den Worten beginnen, wie „eine Anzahl von Studien gezeigt hat, dass solare Variationen Auswirkungen auf das präindustrielle Klima während des Holozäns hatten“. Zur Unterstützung verweisen sie auf 17 Studien: den Artikel von Bond und Neff oben plus:

Davis & Shafer 1992; Jirikowic et al. 1993; Davis 1994; vanGeel et al. 1998; Yu&Ito 1999; Hu et al. 2003; Sarnthein et al. 2003; Christla et al. 2004; Prasad et al. 2004; Wei & Wang 2004; Maasch et al. 2005; Mayewski et al. 2005; Wang et al. 2005a; Bard & Frank 2006; und Polissar et al. 2006.

Die Korrelationen in den meisten dieser Studien gelten nicht direkt für die Temperatur. Sie gelten für Temperatur-Proxies, von denen einige eine komplexe Beziehung mit der Temperatur haben, wie Neff (2001), der eine Korrelation zwischen der Sonnenaktivität und der Regenmenge gefunden hat. Selbst dabei tendieren die Korrelationen dazu, stark zu sein, als ob der ganze Kreislauf grob synchron mit der Sonnenaktivität verläuft.

Einige Studien untersuchen wirklich die Korrelationen zwischen Proxies der Sonnenaktivität und direkten Proxies der Temperatur, wie das Verhältnis zwischen Sauerstoff 18 zu Sauerstoff 16 in geologischen Proben. Eine solche Studie (eingehend zitiert von Kirkby 2007) stammt von Mangini et al. 2005 mit dem Titel: „Reconstruction of temperature in the Central Alps during the past 2000 yr from a δ18O stalagmite record“ (etwa: Rekonstruktion der Temperatur in den Zentralalpen während der letzten 2000 Jahre aus dem δ18O-Gehalt eines Stalagmiten).

Auszug aus dieser Studie von Mangini: „…eine hohe Korrelation zwischen δ18O in SPA 12 und D14C (r = 0,61). Die Maxima von δ18O fallen mit solaren Minima zusammen (Dalton, Maunder, Sporer, Wolf ebenso wie Minima um die Jahre 700, 500 und 300). Diese Korrelation zeigt, dass die Variabilität von δ18O durch Veränderungen der Sonnenstrahlung angetrieben wird, was mit früheren Ergebnissen mit Stalagmiten des Holozäns in Oman und Mitteldeutschland übereinstimmt.”.

Und das ist nur älteres Zeug. Hier folgen vier unterstützende Studien jüngeren Datums.

Ogurtsov et al, 2010, “Variations in tree ring stable isotope records from northern Finland and their possible connection to solar activity,” JASTP.

Auszug von Ogurtsov: „Statistische Analysen von Aufzeichnungen der stabilen Kohlenstoff- und Sauerstoffisotope aus Baumringanalysen zeigen Variationen mit zeitlichen Perioden um 100, 11 und 3 Jahre. Eine Verbindung im Zeitmaßstab eines Jahrhunderts zwischen 13C/12C und der Sonnenaktivität ist höchst offensichtlich“.

Di Rita, 2011, “A possible solar pacemaker for Holocene fluctuations of a salt-marsh in southern Italy,” Quaternary International.

Auszug aus DiRita, 2011: „Die chronologische Korrespondenz zwischen Reduktionen der Vegetation in Salzmarschen und minimaler Konzentrationen von 10Be im GISP2-Eisbohrkern stützt die Hypothese, dass wichtige Fluktuationen der Ausdehnung von Salzmarschen in der küstennahen Tavoliere-Ebene (Süditalien) mit Variationen der Sonnenaktivität verknüpft sind“.

Raspopov et al, 2011, “Variations in climate parameters at time intervals from hundreds to tens of millions of years in the past and its relation to solar activity,” JASTP.

Auszug aus Raspopov 2011: „Unsere Analyse von 200 Jahren klimatischer Oszillationen in modernen Zeiten und auch die Daten anderer oben erwähnter Forscher legen nahe, dass diese Klimaoszillationen mit dem solaren Antrieb in Verbindung stehen. Die Ergebnisse unserer Studie hinsichtlich klimatischer Variationen vor Millionen von Jahren zeigen unserer Ansicht nach, dass der solare 200-Jahres-Zyklus einen starken Einfluss auf Klimaparameter auch in jenen Zeitintervallen hatte“.

Tan et al, 2011, “Climate patterns in north central China during the last 1800 yr and their possible driving force,” Clim. Past.

Auszug aus Tan: „Die Sonnenaktivität könnte die dominante Kraft sein, die die gleichphasigen Variationen der Temperatur und des Niederschlags im zentralen Nordchina angetrieben hat”.

Salzmarschen, Niederschlag, „Oszillationen”. Es ist alles so faire Wissenschaft. Wie ist es mit etwas einfach Ängstigendem?

Solheim et al. 2011, “The long sunspot cycle 23 predicts a significant temperature decrease in cycle 24,” submitted astro-ph.

Auszug aus Solheim: Wir finden, dass für die untersuchten norwegischen Stationen 30% bis 90% der Temperaturzunahme in dieser Periode mit der Sonne zusammenhängen kann. Für das Mittel von 60 europäischen Stationen finden wir ≈ 60% und global (HadCRUT3) ≈ 50%. Die gleichen Relationen sagen eine Temperaturabnahme von ≈ 0,9°C global und 1,1 bis 1,7°C für die norwegischen Stationen voraus, untersucht aus den Sonnenzyklen 23 und 24”.

Erster Fehler im Kapitel über Paläoklima: Weglassen aller solaren Variablen außer TSI

Das Kapitel über die Paläo-Beobachtungen ist der richtige Ort für den Beweis eines solar-magnetischen Klimaantriebs, weil das meiste dieses Beweises aus der Ablagerung kosmogener Isotopen in verschiedenen paläologischen Schichten stammt: Eisbohr-, geologische Bohrkerne und Baumringe. Ist die Sonnenaktivität hoch, kann weniger kosmische Hintergrundstrahlung (GCR) gegen den Sonnenwind bis zur Erde durchdringen, was zu Variationen kosmogener Isotope führt, die man in Schichten aus bekannten Zeiträumen findet und die als Proxy für die Sonnenaktivität dienen. Aber an der Stelle des Kapitels, an der es um diese kosmogenen Aufzeichnungen geht, schaut man lediglich darauf, wie man diese nutzen kann, um die solare Gesamtstrahlung TSI zu rekonstruieren. Es gibt nicht einmal einen Hinweis auf die Fülle von Studien, die einen hohen Grad der Korrelation zwischen der Sonnenaktivität und zahlreichen Paläoproxies bzgl. Klima und Temperatur aufweisen!

Dies passiert dann (in dem Anhang, in dem gefragt wird, ob die Sonne ein hauptsächlicher Klimatreiber ist). In diesem Anhang wird die langzeitliche Änderung der TSI erwähnt, die parallel mit der orbitalen Variation läuft (Milankovitch-Zyklen), ein Faktor, der sich seit 1750 nicht genug geändert hat, um für irgendeine signifikante Erwärmung seitdem in Frage zu kommen. Auch können TSI-Änderungen durch Änderungen der von der Sonne ausgehenden elektromagnetischen Strahlung nicht für die jüngste signifikante Erwärmung verantwortlich sein, weil angesichts der Sprünge in der Sonnenaktivität alle 11 Jahre der solare Output bekanntlich bemerkenswert stabil ist und lediglich um 1% bis 2% variiert.

Daher, lautet das Fazit in dem Anhang, kann die Sonne nicht für irgendeine signifikante Erwärmung seit 1750 in Frage kommen. Aber diese Schlussfolgerung kann man nur ziehen, wenn man jede Berücksichtigung jener solaren Variablen außer der TSI außen vor lässt, die die globale Temperatur beeinflussen könnten. Anders als die TSI variieren der Sonnenwind und der Druck deutlich während und zwischen den Zyklen. Das gilt für den AP-Index und den Fluss der F10,7cm–Radiowellen, während die vom Sonnenwind modulierte GCR (gemessen durch Neutronenzählungen in Climax, Oulu und anderen Orten) sich um eine ganze Größenordnung über den Sonnenzyklus verändern kann. Im Gegensatz dazu variiert die TSI so wenig, dass man sie die „Solarkonstante“ nennt. Falls es einen Mechanismus gibt, durch den solare Variationen die Temperatur der Erde steuern, geschieht dies höchst wahrscheinlich durch jene solaren Variablen, die tatsächlich stark mit der Sonnenaktivität schwanken. Und doch wird in der Diskussion in dem Anhang so getan, als würden diese solaren Variablen gar nicht existieren.

Das ist also der erste Fehler im Anhang des Paläo-Kapitels: es wird so getan, als ob die ganze Bandbreite möglicher solaren Effekte behandelt worden ist, während es mit Hingabe abgelehnt wird zu erwähnen, dass es eine ganze Reihe solarer Variablen gibt, die sich anders als die TSI erheblich während eines Sonnenzyklus‘ verändern und die unser Klima auf eine Weise beeinflussen, die wir noch nicht verstehen. Im Endeffekt leben wir innerhalb der „Atmosphäre“ der Sonne, der erweiterten Korona, erzeugt durch das Magnetfeld der Sonne und den Sonnenwind. AR 5 nimmt einfach an, dass diese solare Umgebung keine Auswirkung auf das globale Klima hat, und sie treffen diese Annahme durch das hingebungsvolle Weglassen der relevanten Variablen. Das Problem der ausgelassenen Variablen ist kein Zufall. Es ist Betrug durch absichtliches Auslassen.

Zweiter Fehler im Paläo-Kapitel: die höchst irrationale Hypothese, dass die Temperatur eher durch den Trend der Sonnenaktivität anstatt durch dessen Niveau getrieben wird

Vielleicht in einem Versuch, das Ignorieren aller Solarparameter außer TSI zu rechtfertigen, endet der Anhang zum Paläo-Kapitel mit einer Aussage, die als genereller Grund dafür präsentiert wird, die Möglichkeit auszuschließen, dass die solare Variation durch IRGENDEINEN Mechanismus einen signifikanten Beitrag zur Erwärmung im 20. Jahrhundert geleistet hat.

(Die hier folgende Feststellung ist die bekannte Behauptung, dass die Sonnenaktivität nicht für die Erwärmung zum Ende des 20. Jahrhunderts verantwortlich sein kann, weil sie in der zweiten Hälfte des 20. Jahrhunderts nicht zugenommen hat. Im vorigen Jahr habe ich mehrere Beiträge geschrieben, in denen ich die Anzahl der Anti-CO2-Alarmisten dokumentiert habe, die diese erstaunliche Bemerkung gemacht haben, dass es nämlich nicht die Stärke des Antriebs ist, die Erwärmung erzeugt, sondern die Änderungsrate des Antriebs. Siehe zum Beispiel "Solar warming and ocean equilibrium Part 3: Solanki and Schuessler respond.")

Die TSI ist zum Höhepunkt des Sonnenzyklus’ am höchsten, ebenso wie alle anderen Parameter auch. Folglich spielt es gar keine Rolle, welchen Parameter man sich anschaut, er kann keine Rolle bei der jüngsten Erwärmung gespielt haben, weil keiner dieser Variablen irgendeinen Aufwärtstrend während dieser Zeit gezeigt hat, richtig? Falsch! Das ist so, als wenn man sagt, dass man einen Topf mit Wasser nicht erwärmen kann, indem man die Flamme auf Maximum stellt und sie dort belässt, sondern das man die Flamme laaaangsam höher stellen muss, wenn man das Wasser erwärmen will. Es ist unglaublich, das etwas so komplett Unwissenschaftliches im AR 5 auftaucht und als höchst eingehend geprüfte Wissenschaft durchgeht.

Und die „Flamme” ist auf Maximum geblieben. Noch einmal, es gab ein 80-jähriges „Großes Maximum“ der Sonnenaktivität, das in den frühen zwanziger Jahren begonnen hatte (Usoskin 2007).

 (Einschub von WUWT für Leif und andere, die bestreiten, dass es ein solches Großes Maximum im 20. Jahrhundert gegeben hat: Falls die Sonnenaktivität im 20. Jahrhundert lediglich „hoch anstatt außerordentlich hoch“ war (Muscheler 2007), macht das keinen Unterschied für das Argument hier, wie ich in einem Nachtrag am Ende erkläre)

Mit der Behauptung, dass die Sonnenaktivität immer weiter zunehmen müsste, um die Erwärmung Ende des 20. Jahrhunderts zu verursachen, nimmt AR 5 im Endeffekt an, dass sich die Ozeane Ende der siebziger Jahre bereits im Gleichgewicht befanden, egal welchen Antriebseffekt das hohe Niveau der Sonnenaktivität im 20. Jahrhundert hatte. Anderenfalls würde das weiterhin hohe Niveau der Sonnenaktivität weitere Erwärmung erzeugt haben.

Behauptungen über die rasche Angleichung der Ozeane wurden aufgestellt (Schwartz 2007), aber sie halten einer genauen Überprüfung nicht stand. Um sein Ergebnis zu erhalten, benutzte Schwartz ein Energiebilanzmodell, in dem die Ozeane durch eine einzige Wärmesenke repräsentiert worden sind. Das heißt, er nahm an, dass sich die Temperatur im gesamten Ozean sofort verändert hat! Verwendet man ein Modell mit 2 Wärmesenken, wo die Wärme Zeit braucht, sich von einer Ozeanschicht in eine andere zu verlagern (Kirk-Davidoff 2009), sagt uns eine rasche Temperaturanpassung der oberen Ozeanschicht fast nichts über die Dauer, sich bei einem langzeitlichen Antrieb anzupassen. (Für einen tiefer gehenden Vergleich der Energiebilanzmodelle mit einer und mit zwei Wärmesenken siehe Teil 2 meiner Reihe über Gleichgewicht im Ozean).

Die Aufzeichnung der Paläotemperatur wird gekennzeichnet durch Erwärmungs- und Abkühlungsphasen, jeweils im Zeitraum von Jahrhunderten, was nahe legt, dass der Ausgleich leicht Jahrhunderte lang erfolgen kann. Das macht es lächerlich zu vermuten, dass sich der Erwärmungseffekt eines Großen Maximums, das Anfang der zwanziger Jahre begonnen hat, bis 1970 oder 1980 oder bis zu irgendeinem speziellen Zeitpunkt ausgewirkt hat.

Nein, es gibt keinen Weg, das schlichtweg inkompetente Argument im Anhang zum Paläo-Kapitel aufrecht zu erhalten, dass ein solarer Treiber der Temperatur nur dann Erwärmung bewirken kann, wenn er zunimmt. Wenn der Druck des Sonnenwindes oder GCR irgendwie die globale Temperatur treibt, gibt es alle Gründe anzunehmen, dass sich der Planet so lange weiter erwärmt, solange sich die Sonnenaktivität auf dem Niveau eines Großen Maximums bewegt. Es gibt keine Entschuldigung für das IPCC, diese Variablen wegzulassen, die viel mehr als TSI für den beobachteten hohen Grad der Korrelation zwischen Sonnenaktivität und Klima verantwortlich sind. Um das Paläo-Kapitel noch halbwegs zu retten, müssen alle der inzwischen massiven Beweise, dass es irgendeinen Mechanismus gibt, durch den die Sonnenaktivität den größten Teil der Temperaturänderung treibt, in vollem Umfang dargelegt werden.

Technischer Hinweis: die falsche Zuordnung wird manuell im AR 5 bestimmt, aber das Konzept ist das gleiche wie ein rein statistischer Betrug durch Auslassung.

Wenn die TSI und die anderen solaren Variablen grob zusammen wirken, würde dann nicht das Auslassen dieser Variablen außer TSI die Aussagekraft mehr auf die TSI als auf das CO2 übergehen, zumal sie enger mit der TSI als mit CO2 korrelieren?

In einem rein statistischen Schema ja, aber das IPCC verwendet eine Kombination parametrisierter und geschätzter Elemente, und unter den parametrisierten Elementen sind die Strahlungsantriebe von CO2 und TSI, was bedeutet, dass deren Erwärmungswirkung ebenfalls parametrisiert ist, wobei das CO2 einen 40 mal größeren Erwärmungseffekt hat als die TSI in der Periode von 1750 bis 2010.

Diese Parametrisierung bedeutet, dass die Aussagekraft der ausgelassenen solaren Magnetfeldvariablen vierzig Teile CO2 für jeden Teil der TSI zugeordnet wird. Diese Struktur führt zu der falschen Zuordnung zu CO2. Man kann sich das als manuelle Anpassung an die falsche Zuordnung vorstellen.

Das Generalkonzept der ausgelassenen Variablen bleibt das Gleiche. Es gibt nur einen Beitrag zur Erwärmung (100%). Falls man dem Beitrag der solarmagnetischen Variablen gemäß den Beweisen aus historischen Aufzeichnungen mindestens 50% zuschreibt, können logischerweise weniger als 50% anderen Gründen zugeordnet werden.

Was erneut die wissenschaftliche Kompetenz des IPCC in Frage stellt. Falls das CO2 den vierzigfachen Erwärmungseffekt auf die 50%-Antriebe der globalen Temperatur hat (gesamtsolare Auswirkung), dann ergibt sich – was? Den 2000-prozentigen Treiber der globalen Temperatur?

Das Kapitel über Aerosole und Wolken kehrt die wissenschaftliche Methode in ihr Gegenteil, indem die Theorie benutzt wird, um die Beweise zu widerlegen

Während das Paläo-Kapitel einfach nur so tut, als gäbe es außer der TSI keine weitere solare Variable, enthält das Kapitel über Aerosole und Wolken diese Option nicht. Seine Aufgabe ist es, direkt die Möglichkeit anzusprechen, dass Variable wie der Sonnenwind und GCR das Klima beeinflussen könnten. Aber auch dieses Kapitel wartet mit einem Weg auf, jeden Hinweis auf die massiven Beweise zu vermeiden, dass es irgendeinen Mechanismus geben muss, durch den die Sonnenaktivität das Klima treibt. Kaum wird das Thema angesprochen, geht man stattdessen sogleich dazu über, die Haltbarkeit der speziellen Theorien über diesen Mechanismus zu untersuchen, durch den die Sonnenaktivität das Klima treiben könnte.

Dies geschieht genau am Anfang des (Abschnitts, der die mögliche Wechselwirkung zwischen kosmischer Strahlung, Aerosolen und Wolken diskutiert):

(Die hier folgende Passage besteht aus den ersten beiden Sätzen hinter der Überschrift dieses Unterkapitels. Der erste listet drei Studien, die nichtspezifische Korrelationen zwischen kosmogenen Isotopen und verschiedenen Klimavariablen finden. Im zweiten Satz erfolgt der unmittelbare Übergang zu einer Diskussion der Beweise für spezielle Mechanismen, durch die die Sonnenaktivität die globale Temperatur treiben könnte.)

Der erste Satz dieser Passage kommt Hinweisen auf die überwältigenden Beweise nicht näher als der gesamte AR 5, dass es IRGENDEINEN Mechanismus gibt, durch den die Sonnenaktivität die globale Temperatur treibt. Es werden einige Korrelationen zwischen Sonnenaktivität und Klima angesprochen, aber die Stärke dieser Korrelationen und wie gut sie belegt sind, wird komplett verschleiert, und das war es. Der zweite Satz enthält den Übergang zur Erwähnung bestimmter Theorien möglicher Mechanismen, durch die die Sonnenaktivität das Klima beeinflussen könnte. Nach einer kurzen Diskussion wird dem Beweis für diese speziellen Mechanismen Geltung verschafft (ziemlich tendenziös), dass sie „(nicht stark genug)“ seien, um eine „(signifikante Auswirkung auf das Klima)“ zu haben (Seite …, Zeile …). Mit dieser proklamierten Schwäche wiederum wird das Auslassen der angesprochenen Mechanismen aus den GCMs des IPCC begründet, die folglich auch nicht in die aus diesen Modellen abgeleiteten Projektionen eingehen.

Was machen die Autoren des AR 5 mit den überwältigenden Beweisen, dass es IRGENDEINEN Mechanismus gibt, der das solare Magnetfeld zum Haupttreiber der globalen Temperatur macht? Sie mögen die bekannten speziellen Theorien nicht, aber sie müssen doch anerkennen, dass IRGENDEIN solcher Mechanismus wirkt, oder? Aber die Leser wissen nichts von diesem Beweis. Er wurde einfach durch diesen einen ersten Satz übersprungen, in dem ein obligatorischer Hinweis auf einige Studien mit unidentifizierten Ergebnissen erwähnt worden ist, was es dem AR 5 gestattet, so weiterzumachen, als würde dieser Beweis nicht existieren. Sie erwähnen ihn kein zweites Mal. Niemals berücksichtigen sie ihn in irgendeiner Weise. Er ist aus dem AR 5 VERSCHWUNDEN. Die Autoren erklären ihre Unzufriedenheit mit den verfügbaren Theorien, wie die Sonnenaktivität das Klima treiben könnte, und nutzen dies als Entschuldigung dafür, die massiven Beweise, dass irgendein Mechanismus wirkt, vollständig zu ignorieren.

Dies ist eine exakte Umkehrung der wissenschaftlichen Methode, nach der die Beweise immer die Theorie widerlegen. Das IPCC wirft den Beweis für einen solarmagnetischen Treiber des Klimas beiseite, weil es mit den vorgeschlagenen Theorien hierzu nicht befriedigt ist. Dies ist die Definition von Anti-Wissenschaft: dass man die Theorie (oder die Ideologie oder irgendwas) über die Beweise stellt. Der Beweis muss die Trumpfkarte sein, oder es handelt sich nicht um Wissenschaft. Das IPCC engagiert sich im reinen Tatbestand von Anti-Wissenschaft, die die wissenschaftliche Methode buchstäblich auf den Kopf stellt.

Das ist so, als würde ein „vor-Newton-Wissenschaftler“ vorhersagen, dass sich ein in die Luft geworfener Stein auf dem Luftzug fortbewegen wird, weil wir die Kraft verstehen, die der Luftzug auf den Stein ausübt, aber es gibt keine gute Theorie des Mechanismus’, mit dem schwere Objekte auf den Boden gezogen werden. Wir sollten daher den überwältigenden Beweis, dass es irgendeinen solchen Mechanismus geben muss, der schwere Objekte zu Boden fallen lässt, ignorieren; und bis zu der Zeit, zu der wir diesen Mechanismus definieren können, machen wir so weiter, als ob ein solcher Mechanismus nicht existiere. Das ist es, was das IPCC tatsächlich mit dem Sonne-Klima-Beweis macht. Ihr seid alle keine Wissenschaftler. Ihr seid in Wirklichkeit lupenreine Antiwissenschaftler.

Noch mehr Anti-Wissenschaft: Im Kapitel über Aerosole und Wolken wird der Fehler wiederholt

Sie wissen, wovon ich rede: über den Gedanken, dass ein Klimatreiber nur dann eine fortgesetzte Erwärmung bewirken kann, wenn sein eigenes Niveau fortwährend steigt. Im Kapitel über Wolken und Aerosole heißt es erneut, dass das bloße Verbleiben eines Klimatreibers auf seinem Maximum unmöglich eine Erwärmung bewirken kann (Seite …, Zeile …):

„… … … … …“

Und das ist das Ende des Abschnitts, das Satzzeichen des IPCC dazu, warum die Sonnenaktivität und GCR als Erklärung der Erwärmung des späten 20. Jahrhunderts verworfen werden sollte.

Dies ist Antiwissenschaft auf ihre eigene Weise. Von Wissenschaftlern nimmt man an, dass sie smart sind. Es ist nicht vorgesehen, dass sie denken, dass man die Flamme unter dem Wassertopf langsam aufdrehen muss, um ihn zu erwärmen. Man kann jeden Schwachkopf der Welt zusammen bringen, und nicht einer von ihnen würde überhaupt auf den Gedanken kommen, dass man die Wärmezufuhr langsam erhöhen muss. Das wäre mehr als dumm. Es ist krankhaft dumm! Und viele Kapitel schreibende Teams proklamieren alle den gleichen Unsinn? Quatsch!

Okay, ich glaube, damit kann ich zur Zusammenfassung kommen. Ihr habt alle diese zehner-Milliarden an Forschungsgeldern eingesteckt und es benutzt, um einen Betrug zu begehen. Wie ich oben dokumentiert habe, habt ihr den größten und krassesten Betrug aller Zeiten durch Auslassen von Variablen begangen, aber bisher weiß das nur die skeptische Hälfte der Welt. Ihr habt noch eine letzte Chance, bevor die globale Abkühlung eine etablierte Tatsache ist, eine rasche Umkehr zu vollführen und noch einige Scherben eurer Reputation zu bewahren. Aber wenn der AR 5 erscheint und ihr immer noch darauf besteht, dass das CO2 den dominanten Einfluss auf die Erwärmung ausübt, zu einer Zeit, in der die globale Abkühlung beweist, dass die inzwischen deutlich ruhigere Sonne der Hauptklimatreiber ist, dann könnt ihr alle sofort einpacken. Ihr habt immer noch eure schmutzige Geldgier, aber der Hahn wird zugedreht werden, und eure Reputation wird für immer zerstört sein.

Kann man sich eine schlimmere Kombination vorstellen? Immer noch dem CO2 den Krieg erklären, obwohl die Sonne schon jetzt beweist, dass das CO2 ausschließlich Vorteile hat? Und das ist es, was den Beweisen, allen Beweisen zufolge geschehen wird, die ihr so eifrig außen vor gelassen habt. Ich bin gespannt auf eure Verlegenheit, aber viel lieber würde ich sehen, wenn ihr euch rettet, so dass die erforderlichen politischen Umkehrmaßnahmen schneller kommen können*. Die Anti-CO2-Politik, die eure betrügerische „Wissenschaft“ unterstützt hat, zerstört gerade die Weltwirtschaft. Ihr Idioten tötet unsere Zukunft! Bitte wacht auf und versucht, euren eigenen Ruf zu retten, bevor eure verrückte Antiwissenschaft uns alle ruiniert!

Ende der Begutachtung!

*[Im Original lautet dieser Nebensatz: „…so that the needed policy reversals can some that much sooner.” Der Satz macht so keinen Sinn. Vermutlich liegt irgendwo ein Schreibfehler des Autors vor, aber ich konnte ihn nicht finden. A. d. Übers.]

“Betrug durch Auslassung” ist die fundamentalere Kritik

Allen, die vom Beweis der Sonne als Klimatreiber beeinflusst sind, ist gemeinsam, ihren Protest gegen das Verwerfen der Beweise seitens des IPCC durch den Widerspruch zu dem kurzen Prozess zu machen, den das IPCC mit den Theorien über die mögliche Wirkungsweise dieser Effekte macht. Beispielhaft folgt hier die Kritik von Tim Ball zum AR 4 aus dem Jahr 2008:

…sie sind eifrig jeder Diskussion der klaren Beziehung zwischen der Aktivität von Sonnenflecken und der Temperatur aus dem Weg gegangen. Sie haben behauptet, dass es keine Erklärung für die Korrelation gibt, aber das stimmt nicht. Ein sehr wirksamer Mechanismus, bekannt unter der Bezeichnung Kosmische Theorie (Svensmark und Calder, „The Chilling Stars“) zieht sich seit 1991 zunehmend detailliert durch die Literatur. Das Datum ist wichtig, weil das IPCC behauptete, dass diese Theorie nur deswegen außen vor geblieben war, weil sie nicht rechtzeitig veröffentlicht worden war, um noch berücksichtigt werden zu können.

Mit anderen Worten, beim AR 4 war genau das gleiche der Fall wie beim AR 5. Sie benutzten das vermeintliche Fehlen einer zufriedenstellenden Theorie, wie ein solarmagnetischer Treiber funktionierte, als Entschuldigung, den überwältigenden Beweis nicht zu erwähnen, wie ein solcher Mechanismus als potenter Treiber des globalen Klimas agieren könnte (ein Kniff, den ich in meinen Kommentaren zum zweiten Entwurf des AR 4 dokumentiert habe, und TAR wandte den gleichen Trick ebenfalls an).

Balls Antwort – nämlich dass es doch eine ziemlich gute Theorie gibt – ist perfekt richtig, aber sie erwähnt nicht den tieferen Punkt: Dass es nämlich niemals irgendeine Entschuldigung dafür geben kann, „eifrig jede Diskussion der klaren Beziehung zwischen Sonnenflecken und Temperatur (zu vermeiden)“. Die Kritik an dem „Betrug durch Auslassen“ greift diese Entschuldigung direkt an und stellt sie bloß. Empirische beweise, die Rohdaten, sind die ultimativen Schiedsrichter. Falls man irgendeine Entschuldigung vorbringt, die Beweise beiseite zu schieben, handelt es sich nicht länger um Wissenschaft.

Wir kennen auch die Konsequenzen dieser betrügerischen Antiwissenschaft. Das Auslassen irgendeiner Variablen mit bekannter Aussagekraft (egal ob der Mechanismus verstanden ist oder nicht) erzeugt eine fehlerhafte Zuordnung gleicher Größenordnung. Es ist ein Fehler erster Güte.

Im Gegensatz dazu ist es ein geringeres Problem, mit der GCR-Wolken-Theorie kurzen Prozess zu machen. So lange wie das Vorhersageschema des IPCC die jüngste Erwärmung mit der Sonnenaktivität verbindet in Übereinstimmung mit Verteilungen in der Vergangenheit ist es keine große Sache, ob ein spezieller Sonne-Temperatur-Mechanismus modelliert wird oder nicht. Zumindest die bekannten aussagekräftigen Variablen werden nicht ausgelassen, und wir befinden uns auf der Ebene zweitrangiger Fehler anstatt Fehlern erster Güte.

Man beachte, dass es nicht notwendig ist, irgendeine Theorie zu aktivieren. Vorhersagen der künftigen Sonnenaktivität zum Beispiel basieren nicht auf physikalischen Modellen, sondern sind einzig und allein eine Projektion von Verteilungen in der Vergangenheit, und dies ist ausreichend, um Fehler erster Güte zu vermeiden. Man vermeide den Betrug durch Auslassung von Variablen, ziehe die bekannte Aussagekraft der solarmagnetischen Variablen in Betracht in irgendeiner vernünftigen Weise, und große Fehler werden vermieden.

Für die Betrüger sind große Fehler der zentrale Punkt. Nur mit großen Fehlern können unsere ökolinken „Wissenschaftler“ ihren Krieg gegen den industriellen Kapitalismus aufrecht erhalten. Nur große Fehler kann den Mainstream-Links-Politikern erlauben, die riesigen Energiesteuern zu erheben, die sie als eine Schatztruhe betrachten und die sie hunderte Milliarden Dollar an Wind- und Solarsubventionen an ihre Freunde und Unterstützer kanalisieren lässt.

Aber der Betrug ist leicht zu entlarven. Nahezu jeder, der einmal Anfängerkurse in Statistik besucht hat, kennt das Problem der ausgelassenen Variablen. Das gilt für jeden Absolventen noch ohne Abschluss, jeden Wirtschaftsabsolventen, jeden Wissenschaftsabsolventen und die meisten anderen Absolventen sozialer Wissenschaften. Derzeit glauben es die meisten dieser Leute, wenn man ihnen sagt, dass sie die Fakten nicht für sich selbst checken können, und das sie den hoch gelobten Wissenschaftlern einfach vertrauen müssen (oder nicht). Aber das stimmt nicht. Nicht nur, dass jeder doch für sich die Fakten checken kann, sondern es ist auch trivial einfach.

Alles was sie tun müssen ist ein Scannen der vielen empirischen Ergebnisse, dass die solarmagnetische Aktivität im statistischen Sinne Dinge wie die Hälfte der vergangenen Temperaturänderung „erklärt“. Dann müssen sie beobachten, dass alle solarmagnetischen Variablen in Wirklichkeit aus den Modellen des IPCC entfernt worden sind. Es gibt die RF-Tabelle für jeden Gebietsbericht, in dem die gesamten solaren Effekte mit lediglich einem kleinen Anteil des Erwärmungseffektes von CO2 parametrisiert werden. Dann bingo! Sie wissen, dass starke Erwärmungseffekte durch die Sonne falsch zugeordnet werden durch die zufällige Korrelation mit CO2. Sie haben die Fakten für sich selbst gecheckt, und an diesem Punkt werden die Stimmen der Autorität, die darauf bestehen, dass sie die Fakten nicht für sich selbst checken können, so werden wie beim Zauberer von Oz [The Wizard of Oz, ein populärer amerikanischer Roman, A. d. Übers.], der ihnen befahl, den Mann hinter dem Vorhang zu ignorieren. Nicht einmal die kleine vertrauensselige Dorothy ist darauf hereingefallen.

Fundamental und durchführbar. Das ist der Grund, warum ich versucht habe, die Kritik am “Betrug durch Auslassen” so viele Jahre lang voranzutreiben. Anthony Watts hat ein größeres Füllhorn als ich, also wird es vielleicht diesmal in die Welt gehen.

Wenn Leif recht hat, dass die Anzahl der Sonnenflecken seit 1945 um 20% reduziert werden sollte, beeinträchtigt dies die obige Analyse in keiner signifikanten Weise

Meine Begutachtung zitiert die Behauptung von Usoskin, dass sich die Sonnenaktivität auf dem Niveau eines „großen Maximums“ befand, und zwar von 1920 bis 2000. Leif Svalsgaard, der häufig Beiträge auf WUWT postet, verneint, dass die jüngste Spitze der Sonnenaktivität ein „großes Maximum“ war. Er führt an, dass das Zählschema der Sonnenflecken von Max Waldmeier nach 1945 Zahlen enthält, die um etwa 20% zu hoch liegen.

Sollte die Sonnenaktivität von 1945 bis 2000 nur „nur hoch anstatt außerordentlich hoch“ gewesen sein (Muscheler 2007, dessen kosmogene Proxies für die Sonnenaktivität bis durch das Jahr 2001 reichen), ändert sich die hier getroffene Aussage nicht signifikant. Wie meine Begutachtung wiederholt, muss man die Flamme unter dem Wassertopf nicht auf hohem Niveau halten, um ihn zu erwärmen. Ausgangs des Maunder-Minimums und der Kleinen Eiszeit – falls den Paläodaten zufolge der hauptsächliche Treiber der globalen Temperatur die meiste Zeit während einiger Jahrhunderte auf hohem Niveau verbleibt, sollte es zu einer fortgesetzten Erwärmung kommen. Tatsächlich aber zu argumentieren, dass der solare Antrieb weiter steigen muss, um eine fortgesetzte Erwärmung zu bekommen (das IPCC behauptet genau das), muss man argumentieren, dass die Ozeane bereits im Gleichgewicht mit dem Antrieb sind, aber es gibt dafür keinen Beweis, während die Geschichte der planetaren Temperatur nahe legt, dass das Gleichgewicht zu erreichen mehrere Jahrhunderte dauern kann.

Es stimmt, dass einige der stärksten Korrelationen zwischen der Sonnenaktivität und der Temperatur kurze Verzögerungen aufweisen, größenordnungsmäßig etwa zehn Jahre, aber rasche Reaktionen auf kurzfristige Änderungen der magnetischen Aktivität der Sonne stören nicht längerfristige Reaktionen auf längerfristige Antriebe. Im Gegenteil, kürzerfristige Reaktionen implizieren längerfristige Reaktionen, genau wie die rapide Reaktion der Tagestemperatur auf den Sonnenaufgang impliziert, dass die längerfristige Zunahme der Einstrahlung, wenn es in Richtung Sommer geht, zu jahreszeitlichen Temperaturänderungen führt (was natürlich der Fall ist).

Für gegenwärtige Zwecke spielt es keine Rolle, ob die Sonnenaktivität nach dem Maunder-Minimum rasch auf ein hohes Niveau gesprungen ist und bis zum Ende des 20. Jahrhunderts zumeist auf diesem Niveau verblieben ist (mit ausgeprägten Ausnahmen zum Dalton Minimum und dem Minimum des 19. Jahrhunderts), oder ob die Sonnenaktivität während der zweiten Hälfte des 20. Jahrhunderts wirklich auf das höchste Niveau seit 9000 vor Christus gestiegen ist (Usoskin). So weit wir wissen, können beide Szenarien für die moderate Erwärmung, um die es hier geht, in Frage kommen.

Das wären 0,7°C von 1600 bis zum Mittel von 1961 bis 1990 nach Moberg 2005, oder 0,5°C zwischen 1750 und 1961 bis 1990. Dieses Temperaturmittel von 1961 bis 1990 ist der HadCRUT3-Nullpunkt. HadCRUT3 erreichte eine Spitze von 0,548°C im Jahre 1998 und ist seitdem um einige Zehntelgrad zurück gegangen, so dass es insgesamt eine Erwärmung von etwa 1°C während der vom IPCC untersuchten Periode von 260 Jahren gegeben hat (inzwischen nur noch 0,8°C). Das ist nichts Ungewöhnliches im Auf und Ab der globalen Temperatur.

Es gibt keinen Grund anzunehmen, dass die Sonne allein für diesen nicht ungewöhnlichen Temperaturanstieg verantwortlich ist, wenn es 50 Jahre lang die höchste Sonnenaktivität seit 9000 vor Christus gegeben hat. Natürlich glaubt das IPCC, dass irgendein konstantes Niveau der Sonnenaktivität während der zweiten Hälfte des 20. Jahrhunderts eine solare Erklärung für die geringe Erwärmung ausschließt, weil die Sonnenaktivität nicht noch weiter zugenommen hat auf ein noch extremeres Niveau, aber das IPCC besteht ja auch nur aus einem Haufen dummer Antiwissenschaftler.

Meine eingereichte Begutachtung enthält eine Ungenauigkeit, die ich in dieser Begutachtung korrigiert habe

In meiner eingereichten Begutachtung habe ich behauptet, dass der einzige Hinweis auf die umfangreichen Beweise für die Sonne als Klimatreiber nur in einem einzigen Satz steht, der eine einzige Erwähnung einer einzelnen Forschungsstudie enthält. In der korrigierten Fassung oben wird daraus: …der eine einzige Erwähnung auf drei Forschungsstudien enthält.

Zwei dieser Studien betrachten lediglich die Korrelation zwischen Sonne und Klima in der zweiten Hälfte des 20. Jahrhunderts und sind daher inhärent unfähig, belastbare Schlussfolgerungen zu ziehen. Ich glaube, ich habe gedacht, dass der einzige „wirkliche“ Hinweis einer Übersichtsstudie gegolten hat, die sich tatsächlich mit den Paläodaten befasst. Aber solche Details sind irrelevant bis zu dem Punkt, den ich herausarbeiten wollte – dass ein Leser des AR 5 keinen Hinweis bekommt, was in irgendeiner dieser Studien steht – und keine Ahnung hat, dass zahlreiche Studien auf die Sonne als den Haupttreiber der globalen Temperatur hinweisen. Die eingereichte Begutachtung zitiert den gesamten Satz, so dass sie nichts verschleiert, aber nicht vollständig akkurat ist.

Das also ist der Preis der Verzögerung. Es war unmittelbar vor dem Ultimatum der Einreichung, und ich musste zu einem wichtigen Treffen eilen, so dass ich nicht so gründlich alles überprüfen konnte, wie ich es gerne getan hätte. Dennoch ist Folgendes die einzige Stelle, an der ich durcheinander gekommen war: es ist keine Referenz zu einer einzelnen Studie, sondern ein Satz, in dem drei Studien erwähnt werden. Da der Entwurf den Lesern von WUWT nicht zugänglich ist, möchte ich irgendwelche Fehlcharakterisierungen nicht weiter ausführen, also merke ich diese Korrektur hier als Fußnote an.

Dieser Beitrag beseitigt auch einige Tippfehler, fügt Links zu einigen der genannten Studien ein und fügt einige Formatierungen hinzu, die in der Excel-Form nicht verfügbar waren. Außerdem wird die Präsentationen an manchen Stellen verbessert.

Alec Rawls Original hier

Weiterführende Links 

Der neue IPCC-Klimabericht: Sonne noch weiter degradiert !

 z.B. hier 

Übersetzt von Chris Frey