Korrelation der Einspeisung aus Windkraftanlagen macht Grundlastfähigkeit in Deutschland unmöglich

Beim derzeitigen Ausbau sind alle Wind- und Solarenergieanlagen in Deutschland zusammen nicht grundlastfähig. Eine entsprechende populärwissenschaftliche Untersuchung wurde vom Verfasser im Internet unter www.vernunftkraft.de/statistik/ veröffentlicht. Dort wurde die Aussage getroffen, „dass die gesicherte Leistung aller Windkraftanlagen in Deutschland zusammen mit Null anzusetzen ist.“ Dieser Fall ist inzwischen eingetreten, als die gesamte Windleistung am 13. März 2014 auf 34 MW (das ist ein Promille der installierten Kapazität bzw. Nennleistung von 34.000MW) abgesunken ist. Der praktische Totalausfall der Windkraft ist also in Deutschland inzwischen eingetreten.
An diesem Konsens unter Technikern und Wissenschaftlern ist nicht zu rütteln, schließlich sind die Einspeisekurven aller Windkraftanlagen in Deutschland öffentlich zugänglich.
Es ist daher nicht verwunderlich, wenn es hier nur „vage Aussagen“ in einschlägigen Studien gibt. Um diese Tatsache drückt sich die versammelte Lobby mit ihren nachgeordneten Instituten mit halbkonkreten Allgemeinplätzen herum.

Führt ein Ausbau der Windenergie zur Glättung der Einspeisung?

 In der Bewertung des weiteren Ausbaus auf eine Vergleichmäßigung der Einspeisung gehen die Einschätzungen unter Wissenschaftlern weit auseinander. Dem Sinne nach vertritt etwa das IWES in Kassel die Auffassung, dass ein weiterer Ausbau zur Glättung und damit zur Vergleichmäßigung der Einspeisung führt. So heißt es in der am IWES in Kassel verfertigten „Agora Kurzstudie zur Entwicklung der Windenergie in Deutschland“ z. B.: „Eine großräumige Verteilung der Anlagen führt folglich zu einer Glättung der Einspeisung.“
Wer sich jemals mit mathematischer Statistik befasst hat, sieht „auf den ersten Blick“, dass diese These mathematisch unhaltbar ist. Die Streuung oder Variabilität einer zufälligen Größe wie etwa die geworfene Augenzahl einer Folge von 50 Würfen mit einem Würfel wird in der Mathematik durch die sogenannte Varianz „gemessen“. Wenn man nun dieses Würfel-Experiment mit 2 Würfeln durchführt (und damit den Ausbau der Windkraft in dieses Experiment einbezieht, weil mit mehr Würfeln gewürfelt wird) und die Summe der Augenzahlen bildet und die Streuung dieser Summe betrachten, zeigt sich, dass die Streuung (und die Varianz!) der Summe steigt und nicht sinkt. Diese Aussage ist evident, weil die Zahlen bei einem Würfel zwischen 1 und 6, bei zwei Würfen zwischen 2 und 12 schwanken. Dahinter verbirgt sich der Additionssatz für die Varianz der mathematischen Statistik. Er besagt, dass sich die Varianz einer Summe zufälliger Zahlen als Summe der Varianzen der einzelnen Zufallszahlen ergibt. Mit jedem weiteren Summanden steigt die Varianz und damit die Streuung und letztlich die Variabilität.

Die Schlussfolgerung an dieser Stelle lautet zweifelsfrei:

Ein Ausbau der Windkraft erhöht die Streuung der Einspeisung. Die von IWES- Wissenschaftlern aufgestellte Behauptung zur Glättung steht im klaren Widerspruch zu eindeutigen Sätzen der mathematischen Statistik. Die Behauptung ist schlicht falsch!

Wird die Einspeisung durch den Ausbau der Windkraft verstetigt?

Betrachtet man die Frage der gegenseitigen Ergänzung von Windkraftanlagen zu einer „Verstetigung“ der Einspeisung, muss etwas genauer hingesehen werden. Die tieferen Zusammenhänge aus der mathematischen Statistik sind allerdings „etwas kniffliger“ (neudeutsch: more sophisticated): Das geschilderte Würfel-Experiment wollen wir nun mit 3, 4, 5 und schließlich mit einer sehr großen Zahl an Würfeln durchführen und die Summe der geworfenen Augenzahlen dabei betrachten. Diese Summe wollen wir in Gedanken bilden, weil die Einspeisungen aller einzelnen Windkraftanlagen in unserem Verbundnetz völlig analog in jedem Augenblick addiert werden. Wenn wir dieses Experiment mit 50 Würfeln durchführen sind folgende Aussagen unmittelbar klar: 

  • Als Summe wird sich sehr selten die Zahl 50 oder 300 ergeben, weil es sehr unwahrscheinlich ist, dass 50 Mal die Augenzahl 1 oder 6 fallen wird,
  • Die Zahl 175 wird häufig vorkommen, weil es viele Kombinationen aus Augenzahlen gibt, die zu der Summe von 175 führen.

Abbildung  SEQ Abbildung * ARABIC 1 Summe der Augenzahlen bei 50 Würfeln 

Wertet man die Häufigkeitsverteilung dieser Summe aus, stellt man fest, dass diese Summe ungefähr entsprechend der bekannten Normalverteilung nach Gauß verteilt ist. Diese
Erkenntnis ist die Aussage eines fundamentalen Satzes der mathematischen Statistik, des sogenannten „Zentralen Grenzwertsatzes“. Er besagt folgendes: Bildet man die Summe aus einer großen Anzahl zufälliger Zahlen, dann folgt diese Summe einer Normalverteilung umso genauer, je größer die Anzahl der Summanden ist. Beim beschriebenen Würfelexperiment wird also die Summe der Augenzahlen um den Wert 175 schwanken, der kleinste Wert kann 50, der größte Wert kann 300 sein. Würde man die Summe der Augenzahlen als die aus 50 einzelnen Einspeisungen gebildete Summe der Einspeise-Leistungen auffassen, so kann zunächst die Aussage getroffen werden, dass diese gedachte zufällige „Leistung“ grundlastfähig ist, schließlich fällt sie praktisch nie auf den Wert Null ab und schwankt um einen Mittelwert. Der aus 50 Würfen nacheinander gebildete Verlauf der Summe ist in Abbildung 1 dargestellt. Man  erkennt, dass die Summen-Augenzahl um einen Mittelwert schwankt und praktisch nie auf kleine Werte abfällt.

Abbildung  SEQ Abbildung * ARABIC 2 Tatsächliche Einspeisung der Windkraftanlagen in Deutschland 
Nun bildet das elektrische Netz in Deutschland die Summe der Einspeisungen aus 24000 Windkraftanlagen. Die Anzahl dieser Summanden übersteigt also statistisch die hier verwendete Zahl von 50 Würfeln um Größenordnungen. Aufgrund des vorgenannten Würfel-Experiments ist also zu erwarten, dass die Summe der Einspeisungen auf einen gleichmäßigen Kurvenverlauf führt, der dem in Abbildung 1 zumindest ähneln müsste.
Das ist ohne jeden Zweifel nicht der Fall: Der Verlauf der Einspeisung zeigt das bekannte Schwankungsverhalten mit den extremen Ausschlägen der eingespeisten Leistung. Darüber hinaus folgt die Summeneinspeisung aller Windkraftanlagen Deutschland nicht der Normalverteilung nach Gauß (Abbildung 3). Damit steht der Verlauf der tatsächlichen Einspeiseleistung zunächst sehr augenscheinlich im Widerspruch zu den Aussagen, die der Zentrale Grenzwertsatz der mathematischen Statistik für die eingespeiste Windleistung erwarten ließe

Die Übertragung der Resultate aus dem einfachen Würfelexperiment auf die Summeneinspeisung der Windkraftanlagen ist ganz offensichtlich ungerechtfertigt. 

Worin liegt nun der Fehler?

 Zunächst ist die eingespeiste Leistung eines einzelnen Windrads anders verteilt als die Augenzahl beim Würfeln. Letztere ist gleichmäßig verteilt, d. h. jede Augenzahl ist gleich wahrscheinlich = 1/6, entsprechend einer Wahrscheinlichkeit von 16,67%. Bei einem Windrad sind kleine Leistungen sehr viel wahrscheinlicher als große. Das ist allerdings nicht der Grund für die Abweichung der Kurvenverläufe, schließlich kann man den „Zentralen Grenzwertsatz“ der Statistik auf jede Art von Verteilung verallgemeinern.[1]
Der Unterschied zwischen dem Würfelversuch mit 50 Würfeln und der Addition der Einspeisungen aus 24000 (!) Windrädern besteht darin, dass die geworfene Augenzahl eines jeden Würfels mit der eines anderen Würfels „nichts zu tun hat“. Die geworfenen Augenzahlen aller Würfel sind in statistischem Sinne unabhängig voneinander. Diese Aussage gilt für die Einspeisungen der einzelnen Windräder nicht, weil die Windgeschwindigkeit an den verschiedenen Windradstandorten bei praktisch jeder Wetterlage in großen Flächen ähnlich ist, d. h. die einzelnen Einspeisungen sind nicht statistisch unabhängig voneinander. Wenn der Wind im Norden von Hessen stark weht, ist das praktisch immer auch im Süden von Hessen der Fall. Diese Aussage ist bei der üblichen Größe von Tiefdruckgebieten auch naheliegend und gilt sinngemäß für jedes Bundesland. Diese simple Tatsache bewirkt, dass hohe ebenso wie niedrige Einspeisungen praktisch immer gleichzeitig in großen Flächen auftreten. Man sagt, die Einspeisungen sind untereinander korreliert, d. h. im großflächigen Umfeld einer stichprobenartig gewählten Referenzanlage kann man die Einspeisungen aller Anlagen auf diese eine Referenzanlage zurückführen. Wenn man die eingespeiste Leistung einer Referenzanlage kennt, kann man also die Leistungen aller Anlagen im großflächigen Umfeld aus der Leistung der Referenzanlage mit hoher Wahrscheinlichkeit ermitteln. Diese Tatsache ist der Inhalt der statistischen Korrelation. Für die gesamte Fläche von Deutschland entspricht also jede Referenzanlage im statistischen Sinne gerade einem Würfel aus dem Würfelexperiment, womit die Frage gestellt ist, durch wie viele Referenzanlagen die Einspeisung in Deutschland dargestellt, also verstanden werden kann. Diese Zahl bemisst die Intensität der Korrelation. Ist diese Zahl klein, so ist die Korrelation stark ausgeprägt, ist diese Zahl groß, ist die Korrelation eher schwächer. Das Würfelexperiment hat gezeigt: Je größer diese Zahl, desto besser können die Einspeisungen sich untereinander ausgleichen. Ist diese Zahl jedoch klein, ist ein gegenseitiger Ausgleich der Einspeisungen zwar grundsätzlich möglich, die Leistungen können aber immer wieder auf sehr kleine Werte absinken, weil es bei weniger als 5 unabhängigen Referenzanlagen häufig vorkommt, dass die Einspeisung aller Anlagen auf sehr kleine Werte absinkt. In diesem Fall ist die Summeneinspeisung prinzipiell nicht grundlastfähig. In diesem Zusammenhang haben Windkraftanlagen ein weiteres Problem: Niedrige Leistungen kommen sehr häufig vor, sind also sehr wahrscheinlich, hohe Leistungen sind selten, sind also eher unwahrscheinlich. Diese Tatsache schlägt sich dann in der Häufigkeitsverteilung der Summeneinspeisung nieder, die in Abbildung 3 dargestellt ist.

Abbildung  SEQ Abbildung * ARABIC 4 Häufigkeit der tatsächlichen und der aus 3 Referenzanlagen berechneten Einspeisung

Diese Verteilung ist ohne jeden Zweifel nicht nach Gauß normalverteilt, woraus unmittelbar gefolgert werden kann, dass zu deren Analyse eine kleine Anzahl unabhängiger Referenzanlagen ausreicht.
Es lässt sich nachweisen, dass diese  „kleine Anzahl“ lediglich bei 3 liegt, d. h. die gesamte Summeneinspeisung in Deutschland kann auf nur 3 Referenzanlagen zurückgeführt werden. Dieser Zusammenhang ist in Abbildung 4 dargestellt. Die Einspeisungen aller Anlagen sind also untereinander hochgradig korreliert. Obgleich also diese 3 Referenzanlagen  untereinander nicht korreliert sind, können alle 23997 restlichen Anlagen auf diese 3 Referenzanlagen zurückgeführt werden. Die in der genannten Agora Studie auf Seite 13 veröffentlichte Erkenntnis, „dass Anlagen an verschiedenen Standorten sich ergänzen können“ ist sicher korrekt, gleichwohl folgt daraus nicht, dass sich die unterschiedlichen Einspeisungen zu einer Grundlast ergänzen. Wie man in der Mathematik sagt, ist die Bedingung der statistischen Unabhängigkeit zweier Einspeisungen für die Grundlastfähigkeit zwar notwendig, aber nicht hinreichend.
Es kommt nicht darauf an, ob sich einzelne Anlagen an unterschiedlichen Standorten untereinander ergänzen können (also statistisch unabhängig voneinander sind), sondern wie groß die Zahl der Anlagen ist, die an verschiedenen Standorten statistisch unabhängig voneinander sind. Wenn sich die Summeneinspeisung aller Anlagen in Deutschland aktuell auf nur 3 statistisch unabhängige Referenzanlagen zurückführen lässt, kann vernünftigerweise nicht erwartet werden, dass die Anzahl der Referenzanlagen und damit der statistisch unabhängigen Einspeisungen durch den Zubau an Anlagen wesentlich anwachsen wird.
Ein Ausbau der Windkraft kann aufgrund der erwiesenermaßen ausgeprägten Abhängigkeit der Einspeisungen untereinander nicht zu einer Verstetigung der Leistung führen. Die vom IWES im Auftrag von Agora aufgestellte Behauptung wäre zwar wünschenswert, erweist sich aber als unzutreffend und widerspricht dem Zentralen Grenzwertsatz, einem fundamentalen Satz der mathematischen Statistik, der schon 1922 von dem Mathematiker Lindeberg bewiesen wurde.

Fazit:

  

1.     Aufgrund von fundamentalen Sätzen der mathematischen Statistik ist die summarische Einspeisung aus Windkraftanlagen in der Fläche von Deutschland prinzipiell nicht grundlastfähig. Der Ausbau der Windkraft in unserem Land kann und wird daran nichts Wesentliches ändern.

    • 2.     Die Leistungsspitzen werden durch den Ausbau der Windkraft weiter ansteigen und die bekannten Probleme der Überproduktion von nichtverwertbaren Strom mit Auswüchsen wie den sogenannten Negativpreisen an der Börse weiter verschärfen.

      3.     Es gibt keine großtechnisch verfügbare effiziente Speichertechnologie zur Nutzung der ansteigenden Leistungsspitzen, so dass das Stromnetz ohne Kraftwerke im Hintergrund nicht betrieben werden kann. Hierbei ist es völlig gleichgültig, ob diese mit Gas, Braun- oder Steinkohle betrieben werden. Der Ausstieg aus den Kernkraftwerken erzwingt einen Ausbau der konventionellen Kraftwerke. Die mit der Stromproduktion verbundenen Kohlendioxid-Emissionen werden ansteigen und nicht sinken.


    [1] Für den Fachmann: In der mathematischen Literatur ist diese Aussage als Ljapunov- Bedingung bekannt.




    Geld umsonst! Alles, was man dafür tun muss: sich als ‚Klima-Opfer‘ gerieren

    Steyer hat dieses Geld offensichtlich durch den Verkauf seiner Anteile an Kinder Morgan erhalten, eines großen Ölunternehmens in Texas. http://www.kindermorgan.com
    Steyer hat auch bedeutende Beträge für die Wahlkampagne der Demokraten locker gemacht, um bei den kommenden Wahlen zum Senat gegen die Kandidaten der Republikaner bestehen zu können.
    Unabhängig davon, dass ich mich frage, ob mein „klimabezogener“ Angst-Tick mich schon für eine Zuwendung qualifiziert (http://wattsupwiththat.com/2013/01/17/one-benefit-of-the-australian-heat-wave/), führt mich Steyers neuer Fonds zu einer interessanten Frage über amerikanische Politik:
    Ist es in Ordnung, wenn große Mengen Öldollar amerikanische Politik beeinflusst, solange dieses Ölgeld dafür ausgegeben wird, den Kandidaten der Demokraten zu helfen?
    Quelle: http://sacramento.cbslocal.com/2014/06/06/california-billionaire-promises-to-help-victims-of-global-warming/
    ————————————————————————————————-
    Ich frage mich, ob ich etwas von dem Geld bekommen kann, weil ich ein Opfer des täglichen Klima-Missbrauchs durch Miriam O’Brien alias „Sou/Hotwhopper“ bekommen könnte. Sicher hat Steyer auch etwas für Opfer verrückter Klima-Stalker im Internet übrig. – Anthony Watts
    Link: http://wattsupwiththat.com/2014/06/07/free-money-all-you-have-to-do-is-to-be-a-climate-victim/
    Übersetzt von Chris Frey EIKE




    Die Geburt der „Energiewende“ aus der katholischen Häresie

    Der „Leugnerszene“ gehe es nicht um Erkenntnisgewinn, sondern um das Pflegen vorgefasster Meinungen. Das zeige sich schon daran, dass EIKE keinen einzigen wissenschaftlichen Angestellten beschäftigt. Tatsächlich beschäftigt EIKE als ausschließlich durch Mitgliedsbeiträge und kleine Privatspenden finanzierter eingetragener Verein überhaupt keine Angestellten. Die Mitglieder von EIKE sehen sich aufgrund ihrer langjährigen Erfahrung als Wissenschaftler und Ingenieure aber sehr wohl imstande, die offiziellen Verlautbarungen der Klimapolitik auf ihre Stichhaltigkeit zu überprüfen und vor der mutwilligen Zerstörung eines bislang zuverlässig funktionierenden Systems der Stromversorgung durch die massive Subventionierung zufallsabhängiger „Erneuerbarer“ zu warnen.
    Warum übernimmt ausgerechnet ein katholisches Hilfswerk die Rolle einer Speerspitze gegen den gesunden Menschenverstand? Bekanntlich spielte der neue Vorsitzende der Deutschen Bischofskonferenz (DBK), der Münchner Erzbischof Kardinal Reinhard Marx, eine maßgebliche Rolle in der von Angela Merkel im März 2011 zur Begründung des überstürzten „Atomausstiegs“ nach dem Reaktorunglück von Fukushima eingesetzten „Ethikkommission“. Wer die Klimapolitik seit ihren Anfängen gegen Ende der 80er Jahre des vergangenen Jahrhunderts verfolgt hat, wird davon nicht überrascht sein. Das bischöfliche Hilfswerk MISEREOR spielte, genau genommen, sogar die Rolle eines Geburtshelfers der deutschen Energiewende. Um die Mitte der 90er Jahre sponserte MISEREOR zusammen mit dem Naturschutzverband BUND die am Wuppertal Institut für Klima-Umwelt-Energie GmbH erstellte Studie „Zukunftsfähiges Deutschland“, erschienen 1996 im Birkhäuser Verlag, Basel. Dieses 450 Seiten starke Buch wurde rasch zur Bibel der deutschsprachigen Öko-Bewegung. Denn es enthält die Begründung der Forderungen nach einem vollständigen „Atomausstieg“ bis 2010, nach der Verminderung des Primärenergieeinsatzes um mindestens 50 Prozent und der Reduktion des CO2-Ausstoßes um 80 bis 90 Prozent bis zum Jahre 2050. Schon bis 2010 sollten überdies Land- und Forstwirtschaft flächendeckend auf „Öko“ umgestellt sein – ohne auch nur anzudeuten, wie man die wachsende Weltbevölkerung ohne den Einsatz von synthetischem Stickstoffdünger ernähren könnte.
    International fordert die Wuppertal-Studie einen „Ausgleich zwischen Norden und Süden“. Was darunter zu verstehen ist, hat der Ex-Jesuit Prof. Dr. Ottmar Edenhofer, heute Chefökonom des Potsdam Instituts für Klimafolgen-Forschung und Ko-Vorsitzender der Arbeitsgruppe III des IPCC, im Herbst 2010 in einem Interview mit der Neuen Zürcher Zeitung unumwunden ausgesprochen: „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“, erklärte Edenhofer. Um den Anstieg der Durchschnittstemperatur der Erde auf zwei Grad Celsius zu begrenzen, dürften die Menschen bis zum Ende des 21. Jahrhunderts höchstens noch 750 Gigatonnen CO2 freisetzen. Eine Welt-Kohlenstoffbank müsse den Einsatz kohlenstoffhaltiger Rohstoffe über den CO2-Zertifikate- beziehungsweise Ablass-Handel und die Subventionierung so genannter erneuerbarer Energien dem entsprechend rationieren. Edenhofer erhielt übrigens für seine Arbeit in den Jahren 2007 bis 2010 von MISEREOR einen Zuschuss von 520.000 Euro. Da stört natürlich der Einwand, dass es bis heute keine einzige wissenschaftliche Untersuchung gibt, die einen nennenswerten Einfluss der CO2-Konzentration auf die Durchschnittstemperatur der Erde belegen könnte. Von daher versteht sich der Eifer, mit dem die geistigen Wegbereiter des deutschen Energiewende-Abenteuers versuchen, ihre Kritiker moralisch in ein schiefes Licht zu rücken und mundtot zu machen.
    Dass die Verteufelung des CO2 wenig mit Wissenschaft und dafür umso mehr mit Religion zu tun hat, ist inzwischen beinahe zum Gemeinplatz geworden, zumal der auffällige Eifer deutscher Bischöfe in Sachen „Klimaschutz“ und Energiewende diesen Eindruck sicher nicht dementiert. So hat nun ein deutscher katholischer Theologe bestätigt: „Der Klimadiskurs ist mehr ein ethisch-spiritueller als ein naturwissenschaftlich-technischer Diskurs. (…) Es geht nicht primär um Klimadaten und deren Deutung, sondern um Weltanschauungen und Wertorientierungen.“ Das schreibt Michael Rosenberger, Professor für Moraltheologie an der Katholisch-Theologischen Privatuniversität im oberösterreichischen Linz, in der humanökologischen Fachzeitschrift GAiA, die unter anderem als Organ der Deutschen Gesellschaft für Humanökologie (DGH) fungiert. Rosenberger sieht in der in Deutschland über Jahrzehnte geschürten Angst vor Radioaktivität, Ressourcenerschöpfung und katastrophalen Klimaveränderungen eine moderne Form der Gottesfurcht, die nach dem Alten Testament der Bibel als die Mutter der Weisheit gilt. Er hält deshalb die den Forderungen nach einer radikalen „Wende“ beziehungsweise „Großen Transformation“ zugrunde liegende apokalyptische Argumentation für vollauf gerechtfertigt. „Angst rüttelt wach, reine Vernunft schläfert ein“, schreibt er. „Klimaschützerische Positionen wollen aus diesem Grund gezielt und mit guten Gründen Angst wecken.“
    Als praktizierender Katholik bestreite ich selbstverständlich nicht, dass die Gottesfurcht die Mutter der Weisheit ist. Sie dient aber in erster Linie dazu, die Menschen Demut zu lehren und sie vor Dummheit infolge von Überheblichkeit zu bewahren. Ich halte deshalb die deutsche Energiewende im Hauruck-Verfahren, weil auf Wissensanmaßung beruhend, für eine weitaus größere Hybris als das von Rosenberger moralisch verurteilte Business as usual, das mir vergleichsweise bescheiden vorkommt, zumal es, wie jeder aus dem Geschäftsleben wissen sollte, durchaus laufende Verbesserungen und auch größere Innovationen einschließt. Diese müssen sich aber, im Unterschied zu politisch dekretierten Festlegungen, auf dem Markt bewähren. Wie die Gottesfurcht, davon bin ich mit Friedrich A. von Hayek überzeugt, kann auch der Markt die Menschen demütig machen.
    Allerdings ist die Demutsforderung beileibe nicht die Kernbotschaft der Bibel. Worin diese besteht, hat meines Erachtens am klarsten der französisch-amerikanische Anthropologe René Girard herausgearbeitet. Ausgehend von literarischen Zeugnissen und von ethnologischen Forschungen kam Girard zur Erkenntnis, dass die Bibel neben der frohen Heilsbotschaft auch den Schlüssel für die wissenschaftliche Erklärung des Ursprungs der Kultur enthält: Wir sind alle Nachkommen Kains, besitzen also einen angeborenen und weitgehend unbewussten Hang, uns ständig mit anderen vergleichen und einander übertreffen zu wollen, was zu konkurrierenden Macht- und Besitzansprüchen führen muss. Physiologische Grundlage dieses Mimetismus sind die so genannten Spiegelneurone.
    Der Ursprung aller Kultur und letztlich auch des Staates liegt nach René Girard in Menschenopfern und Kannibalismus. Er kann sich dabei auch auf Sigmund Freuds Abhandlung „Totem und Tabu“ (1913) berufen, wo dieser Befund allerdings ganz anders interpretiert wird. Alle Ursprungs-Mythen spielen in der einen oder anderen Weise auf den blutigen Ursprung der menschlichen Kultur an. Schon in den Stammesgemeinschaften von Jägern und Sammlern konnten Neid und Zwietracht nur besänftigt und damit die Selbstzerstörung der Gemeinschaft verhindert werden, indem von Zeit zu Zeit Sündenböcke ausgeguckt und geopfert wurden. Das konnten gefangen genommene Angehörige feindlicher Stämme, aber auch Angehörige des eigenen Stammes sein. Das Töten geschah mit gutem Gewissen. Das heißt die Opfer wurden unreflektiert als schuldig betrachtet. In hoch differenzierten Sklavenhalter-Staaten wie im alten Rom oder bei den Azteken in Mexiko wurden Menschenopfer in Form von Gladiatorenkämpfen oder priesterlichen Zeremonien vor großem Publikum ritualisiert. Schon die Versklavung an sich ist eine Form des Kannibalismus, denn die Sklaven wurden ja im römischen Recht nicht als Menschen betrachtet, sondern wie das Vieh als Sache. Einen Fortschritt aus heutiger Sicht stellte da sicher der Ersatz von Menschen- durch Tieropfer bei den Juden dar.
    Das Christentum geht noch einen entscheidenden Schritt weiter, indem es den unbewussten Mechanismus des Auswählens und Hinrichtens von Sündenböcken als Mord an Unschuldigen denunziert. Mit seinem Opfertod am Kreuz, so die Aussage der Bibel, hat Jesus als unschuldiges Opferlamm stellvertretend für alle Sünden der Welt gebüßt und die Menschen vom Fluch Kains erlöst. Weitere Menschen- und Tieropfer sind danach im Prinzip überflüssig. Die Christen sind aufgefordert, Jesu Nachfolge anzutreten, indem sie den unbewussten Mechanismus der Suche nach Sündenböcken in der Eucharistie überwinden. Die heilige Kommunion, so Girard, ist tatsächlich sublimierter Kannibalismus.
    Allerdings standen die Christen schon in der Spätantike ständig in Versuchung, in das alte Denken zurück zu fallen und nach Sündenböcken zu suchen. In denke hier an verschiedene Formen des letztlich materialistischen Manichäismus, mit dem sich schon der heilige Augustinus auseinandergesetzt hat. Im Mittelalter traten immer wieder häretische Sekten auf, die die starre Einteilung der Welt in Gut und Böse bis zu selbstmörderischen Konsequenzen trieben. Erinnert sei hier nur an die von Hitler und den Nazis bewunderten Katharer.
    Das Gute in der Welt ist für die Katharer der von Gott geschaffene Geist. Die Materie ist hingegen eine Schöpfung Satans, des Gottes der Finsternis. Deshalb glaubten die Katharer weder an die Menschwerdung und den Opfertod des Gottessohnes am Kreuz noch an die Möglichkeit der leiblichen Auferstehung Toter. Das heißt, sie leugneten die Kernbotschaft der Bibel. Die Erlösung, das Endziel der Geschichte sahen die Katharer in der Auslöschung alles Leiblichen, das heißt im Selbstmord der Menschheit. Sie untersagten deshalb ihren Anhängern den Fleischgenuss und bekämpften die katholische Kirche mit allen ihnen zur Verfügung stehenden Mitteln. Auch der ebenfalls von Hitler bewunderte Islam muss hier angeführt werden. Er leugnet ebenfalls den Sühnetod Jesu und verdankt seine rasche Ausbreitung Menschenopfern und der Versklavung unterworfener Völker. Es liegt nahe, auch in der aktuellen Verteufelung des Lebenselixiers CO2 eine Form des suizidalen Manichäismus zu sehen. Jedenfalls tat das der australische Kardinal George Pell, als er im Jahre 2007 auf einer im Vatikan veranstalteten nichtöffentlichen Klima-Konferenz erklärte:  „In der Vergangenheit opferten die Heiden Tiere und mitunter auch Menschen, um grausame Götter zu besänftigen. Heute verlangen sie eine Reduktion des CO2-Ausstoßes."  
    Leider nahm Papst Benedikt XVI. nicht an dieser Konferenz teil. Er hätte, wie seine Ansprache vor dem Deutschen Bundestag im September 2011 zeigt, durchaus Erhellendes zu einer christlich begründeten Ökologie des Menschen beitragen können. Außerdem hat er in seiner Jesus-Trilogie unmissverständlich die Utopie der nachhaltigen Entwicklung verurteilt. „Wer behauptet, er könne die heile Welt errichten, der stimmt dem Betrug Satans zu“, schrieb er dort im Band 1. Es spricht Bände, dass ein hörbares Aufatmen durch die Reihen der DBK ging, als Papst Benedikt schließlich Ende Februar 2013 wegen Erschöpfung zurücktrat.
    Tatsächlich geht auch die aktuelle manichäische Häresie der Verteufelung des CO2 mit der Hinnahme von Menschenopfern einher. Die durch das Vergären oder Verheizen von Nahrungspflanzen wie Mais und Weizen zum Zwecke der Erzeugung „erneuerbarer“ Energie ausgelöste Konkurrenz zwischen Tank und Teller führt zur Verteuerung von Nahrungsmitteln und dadurch unmittelbar zu sinkenden Überlebenschancen für die Ärmsten der Armen. Aber auch wenn „Skeptiker“ als unmoralisch diffamiert und sozial ausgegrenzt werden, handelt es sich im Kern um einen Rückfall in vorchristliche Denkweisen mit potenziell kannibalischen Konsequenzen. Besonders deutlich wird das bei der jüngsten Initiative von Greenpeace International, dem WWF und dem Center for International Environmental Law, Manager der Kohlenstoff basierten Kraftstoff-Industrie persönlich haftbar zu machen, wenn sie „Klimaskeptiker“ argumentativ und finanziell unterstützen. 
    Literatur:
    Toralf Staud: Zweifel ist unser Produkt, in: MISEREOR – Das Magazin 2014, pp. 33-39
    Zukunftsfähiges Deutschland. Beitrag zu einer global nachhaltigen Entwicklung. Hrsg. BUND und Misereor. Birkhäuser Verlag, Basel 1996
    Michael Rosenberger: Die Ratio der „Klima-Religion“. Eine theologisch-ethische Auseinandersetzung mit klimaskeptischen Argumenten, in: GAiA 23/2 (2014), pp. 93-99
    René Girard: Les origines de la culture. Librairie Arthème Fayard/Pluriel, Paris 2010
    Sigmund Freud: Totem und Tabu. Fischer-Bücherei, Frankfurt am Main und Hamburg 1956
    Igor R. Schafarewitsch: Der Todestrieb in der Geschichte. Ullstein Verlag, Frankfurt/M.-Berlin-Wien 1980
    Joseph Ratzinger: Jesus von Nazareth. Erster Teil. Von der Taufe im Jordan bis zur Verklärung. Verlag Herder, Freiburg-Basel-Wien 2007
    Ansprache von Papst Benedikt XVI. vor dem Deutschen Bundestag
    Edgar L. Gärtner: Papst Benedikts überhörte Mahnungen
    Executivs facing climate denial related claims could could be personally reliable




    Ist es die Sonne, Dummkopf?

    Änderungen der Sonneneinstrahlung sind gering in relativen Zahlen und machen nur etwa 0,1% des Outputs der Sonne aus – ‚Solarkonstante‘ genannt. Aber diese 0,1% in absoluten Zahlen sind gewaltig angesichts der Größe der Solarkonstante – also der von der Sonne kommenden Energiemenge. In realer Hinsicht hat sie eine Auswirkung über den 11-jährigen Sonnenzyklus, der etwa gleich ist dem Antrieb durch Änderungen von Treibhausgas-Konzentrationen (hier) im gleichen Zeitraum.
    Oftmals kommt dies als Überraschung für alle, die automatisch solare Einflüsse in Abrede stellen. Es gibt jedoch einen qualitativen Unterschied zwischen solaren Antrieben und Treibhausgas-Antrieben.  Die Sonne ist zyklisch – auf und ab – während der Antrieb durch Treibhausgase monoton zunimmt. Solare Variationen sind also kurzfristige Fluktuationen auf einem langzeitlichen Trend zu höheren Temperaturen auf der Erde.
    Es sei den, die Solarkonstante weist einen langzeitlichen Trend auf.
    Die Abschätzung des Wertes der Solarkonstante vor Beginn von Messungen aus dem Weltall ist schwierig und Gegenstand großer Unsicherheiten. Wir wissen, dass die Solarkonstante variiert und bis zu einem gewissen Grad seit der Kleinen Eiszeit zugenommen hat.
    Eine Möglichkeit, den Output der Sonne zu schätzen, ist dessen Verbindung mit der Anzahl von Sonnenflecken, deren Aufzeichnungen bis zum Jahr 1609 zurückreichen. Sonnenfleckenzahlen zeigen den 11-jährigen Sonnenzyklus ebenso wie das Maunder-Minimum zwischen 1640 und 1720 (zusammenfallend mit der Kleinen Eiszeit) und das so genannte Grand Solar Maximum des 20. Jahrhunderts, als die Sonnenflecken-Aktivität geschätzt wurde als die höchste seit vielen tausend Jahren. Eine Analyse der Sonnenfleckenzahlen als Indikator solarer Aktivität zeigt Spitzenwerte in den fünfziger und achtziger Jahren.
    Man könnte einfach die zunehmende Sonnenflecken-Aktivität mit den steigenden globalen Temperaturen korrelieren – und siehe da, es zeigt sich die Verbindung. Aber ob dies für viele Wissenschaftler akzeptabel ist oder nicht – hauptsächlich in UK und den USA – hängt davon ab, wie man es macht.
    Falls man es so macht wie die chinesischen Wissenschaftler und eine Korrelation findet (zwischen Solar-Gesamtstrahlung und globaler Temperatur; Bild oben rechts), wird das als zweifelhaft angesehen. Falls man jedoch zum gegenteiligen Ergebnis kommt, könnte die Aufnahme ziemlich gegensätzlich sein.
    Ein Beispiel hierfür ist eine inzwischen infame, vor ein paar Jahren geschriebene Studie. Sie wurde geschrieben, als es gerade die ersten Anzeichen gab, dass sich die Sonne von der großen Stärke [grand high] der Aktivität des 20 Jahrhunderts zu entfernen begann. In der Studie ging es um die steigende Temperatur der Erde und die steigende und dann wieder fallende Sonnenaktivität. Motto: Weil die Sonnenaktivität zurückgeht und die Temperatur der Erde immer noch steigt, gibt es keine Korrelation. Es war eine Studie, die gerade zu der Zeit durchgeführt worden war, als der Stillstand hinsichtlich der globalen Temperatur erkannt wurde. Falls heutzutage eine ähnliche Analyse mit aktuellen Daten durchgeführt werden würde, wäre man zum gegenteiligen Ergebnis gekommen.
    Aber wenn die Möglichkeit einer Verbindung zwischen Änderungen der Sonnenaktivität und des Erdklimas auftaucht, können Korrelationen zwischen sich ändernden Solarparametern und der globalen Temperatur Verdacht erwecken. Wahr ist, wenn man einer Reihe von Beobachtungen gegenüber steht, wird eine der ersten Fragen eines Wissenschaftlers lauten, mit was korrelieren diese Beobachtungen? Die chinesischen Wissenschaftler haben uns wieder einmal gezeigt, dass es eine Korrelation zwischen Sonnenaktivität und globaler Temperatur über lange Zeiträume gibt. Gegenwärtig ist dies für einige eine unbequeme Tatsache und eine solche, dir wir nicht wirklich erklären können.
    Feedback: david.whitehouse@thegwpf.org
    Link: http://www.thegwpf.org/is-it-the-sun-stupid/
    Übersetzt von Chris Frey EIKE




    Ein Vergleich des Verlaufs der Temperaturvorhersagen der IPCC Berichte 1 bis 5

    Das IPCC hat inzwischen 5 grundlegende Berichte veröffentlicht, zum ersten Mal den FAR im Jahre 1990. Dies bietet Gelegenheit, einmal zu schauen, was vorhergesagt worden und was tatsächlich geschehen war. Die Untersuchung vergangener Berichte in dieser Hinsicht ist ziemlich erhellend, da sie enthüllen, was das IPCC während der letzten 24 Jahre gelernt hat.
    Ich komme zu dem Ergebnis, dass nichts gelernt worden ist außer zu verschleiern, in die Irre zu führen und zu betrügen.

    [Bildinschrift: Abbildung 8: Simulation der Zunahme der mittleren globalen Temperatur von 1850 bis 1990 infolge zunehmender Treibhausgase sowie Vorhersagen des Anstiegs von 1990 bis 2100 bei ‚Business as Usual‘-Emissionen]
    Abbildung 1: Temperaturvorhersagen aus dem FAR (1990). Ist dies die beste Vorhersage, die das IPCC jemals ausgegeben hat? In der Bildunterschrift heißt es klar und deutlich, dass jedem Modell das gleiche Emissions-Szenario zugrunde liegt. Folglich beruhen die Unterschiede zwischen ‚Low-, Best- und High‘-Schätzungen auf unterschiedlichen physikalischen Hypothesen wie der Klimasensitivität von CO2. Durch das Konstant-Halten der Schlüsselvariablen (CO2-Emissions-Trajektorie) wird es dem Leser ermöglicht zu erkennen, wie unterschiedlich wissenschaftliche Beurteilungen zu Buche schlagen. Das ist der richtige Weg, dies zu tun. Alle Modelle haben den Startzeitpunkt 1850 und zeigen bereits bis zum Jahr 2000 eine signifikante Divergenz. Wie verhält sich dies im Vergleich zu dem, was eingetreten war, und zur nachfolgenden Arbeit des IPCC?
    Mir ist klar, dass viele andere genau dies schon zuvor getan haben, und zwar viel differenzierter als ich das hier tun werde. Das beste Beispiel hierfür, das mir bisher untergekommen ist, stammt von Roy Spencer (1), der die folgende ausgezeichnete Graphik erzeugt hat, die jedoch auch einige Kritik auf sich gezogen hat.

    Abbildung 2: Vergleich der multiplen IPCC-Modelle mit der Realität, zusammengestellt von Roy Spencer. Die Tatsache, dass sich die Realität entlang der unteren Grenze der Modelle bewegt, wurde von IPCC-Skeptikern schon oft belegt. Die einzigen Wissenschaftler, die aus dieser Realität geflohen zu sein scheinen, sind die mit dem IPCC Verbundenen.
    Mein Verfahren ist viel einfacher und gröber. Ich habe einfach IPCC-Graphiken via copy and paste in große Karten kopiert, wo ich die IPCC-Vorhersagen vergleiche mit Temperatur-Rekonstruktionen von HadCRUT4. Wie wir sehen werden, hat das IPCC ein außerordentlich laxes Verfahren hinsichtlich der Temperaturbestimmungen, und in jedem Beispiel muss eine unterschiedliche Adjustierung von HadCRUT4 vorgenommen werden, um es mit dem IPCC-Rahmen vergleichbar zu machen.

    Abbildung 3: Vergleich der Temperaturvorhersagen aus dem FAR (1990) mit HadCRUT4. Diese Daten wurden heruntergeladen von der Site von WoodForTrees (2) und dann das jährliche Mittel berechnet.
    Abbildung 3 zeigt, wie die Temperaturvorhersagen aus dem FAR (1990) im Vergleich zur Realität aussehen. Es ist ziemlich eindeutig, dass das beste Modell das untere Modell ist. Ich habe Schwierigkeiten, die Parameter zu finden, die für die Definitionen von Low, Best und High gemacht worden waren, aber der Bericht stellt eine Bandbreite von Klimasensitivitäten zwischen 1,5 und 4,5°C fest. Eindeutig liegt das Low-Modell der Realität von HadCRUT4 am Nächsten. Das High-Modell ist bereits im Jahre 2013 um 1,2°C zu warm.

    Abbildung 4:Im Dritten Zustandsbericht TAR (2001) wurde der Hockeyschläger eingeführt. Die gemessene Temperaturaufzeichnung wird aufgeteilt in eine Proxy-Aufzeichnung, die Modell-Aufzeichnung in einen gemessenen Anteil, und es wird keine Gelegenheit angeboten, den Wahrheitsgehalt der Modelle zu untersuchen. Aber seitdem sind 13 Jahre vergangen, und wir können sehen, wie die Realität im Vergleich zu den Modellen nach diesem sehr kurzen Zeitraum aussieht.
    Ich konnte keine Zusammenfassung des Zweiten Zustandsberichtes (SAR) aus dem Jahr 1994 finden und bin daher gleich zum Dritten Zustandsbericht TAR (2001) gesprungen. Ich glaube, dass dies das Jahr war, in dem der Hockeyschläger das Licht der Welt erblickte. In der imaginären Welt des IPCC waren die Temperaturen auf der Nordhemisphäre von 1000 bis 1900 konstant verlaufen ohne die geringste Spur der Mittelalterlichen Warmzeit oder der Kleinen Eiszeit, wo die wirklichen Menschen entweder aufgeblüht oder millionenfach umgekommen sind. Der aktuelle Temperaturverlauf wird aufgeteilt in die Proxy-Aufzeichnung und die Modellwelt derart, dass sie das Bild einer zukünftigen Temperatur-Katastrophe erzeugen soll. Wie sieht das im Vergleich zur Realität aus?

    Abbildung 5: von 1850 bis 2001 zeigt das IPCC-Hintergrundbild die Beobachtungen (keine Modellergebnisse), die mit den HadCRUT4-Messungen übereinstimmen. Sehr gut gemacht, IPCC! Was seit dem Jahr 2001 geschehen ist, zeigt detailliert Abbildung 6. Um irgendeinen Aussagewert oder irgendwie von Bedeutung zu sein, hätten alle Modelle zum Zeitpunkt 1850 beginnen sollen. Dann würde man nämlich erkennen, dass die Mehrheit der Modelle seit 2001 viel zu warm ausgefallen war.
    Abbildung 5 zeigt den Vergleich der HadCRUT4-Daten mit der Modell-Welt. Die Übereinstimmung von 1850 bis 2001 ist exzellent. Grund hierfür ist, dass man einfach die Messungen in diesem Zeitraum geplottet hat. Nichtsdestotrotz musste ich 0,6°C von HadCRUT4 abziehen, um sie zu den Beobachtungen passend zu machen, während ich ein Jahr zuvor noch 0,5°C addieren musste. Der Maßstab der X-Achse über 250 Jahre macht es schwierig zu erkennen, wie die Modelle seit 2001 im Vergleich zu den 13 Jahren Beobachtungen seitdem aussehen. In Abbildung 6 ist dies als Lupe nachgeholt.

    Abbildung 6: Die einzelne vertikale Gitternetzlinie ist das Jahr 2000. Die blaue Linie zeigt HadCRUT4 (Realität). Sie bewegt sich waagerecht, während alle Modelle einen Aufwärtstrend zeigen.
    Der detaillierte Ausschnitt illustriert die Natur des Problems bei der Evaluierung der IPCC-Modelle. Während die Temperaturen der realen Welt seit etwa 1997 flach verlaufen sind und alle Modelle klar einen Aufwärtstrend zeigen, ist die Zeit wirklich nicht lang genug, um die Modelle angemessen zu evaluieren. Um wissenschaftlich valid zu sein hätte man die Modelle ab dem Jahr 1850 laufen lassen sollen (Abbildung 1), was man aber nicht getan hat. Hätte man das getan, würde die Realität bis zum Jahr 2001 breit divergent (wie 1990) sein, und es wäre einfach gewesen, den Gewinner zu finden. Aber bequemerweise hat man die Modelle um das Jahr 2000 initiiert. Wissenschaftlich ist das eine schlechte Praxis.

    Abbildung 7: Zukunftsszenarien der Temperatur des IPCC aus dem AR 4 (2007). Es scheint, dass das IPCC die Notwendigkeit erkannt hat, die Modelle in der Vergangenheit zu initiieren, und in diesem Falle liegt der Startzeitpunkt weiterhin im Jahr 2000. Damit werden die gleichen 14 Jahre angeboten, in denen die Modellergebnisse mit dem verglichen werden können, was tatsächlich geschehen ist.
    Für den Vierten Zustandsbericht AR 4 (5) kommen wir zum Jahr 2007 und der Summary, gezeigt in Abbildung 7. In diesem Stadium bin ich mir nicht sicher, was die Szenarien B1 bis A1F1 bedeuten sollen. Die Bildunterschrift zu dieser Graphik in den Berichten lautet:
    Abbildung SPM 5: Durchgezogene Linien sind die multi-modellierten Mittel der Erwärmung (relativ zum Zeitraum 1980 bis 1999) für die Szenarien A2, A1B und B1, gezeigt als Fortsetzungen der Simulationen des 20. Jahrhunderts. Die Schattierung kennzeichnet die ±1-Standardabweichung der jährlichen Mittelwerte eines jeden individuellen Modells. Die orange Linie gilt, wenn die Konzentrationen konstant bei den Werten aus dem Jahr 2000 gehalten werden. Die grauen Balken rechts zeigen den Best Estimate (durchgezogene Linie in jedem Balken) und die wahrscheinliche Bandbreite der sechs SRES-markierten Szenarien. Die Bestimmung des Best Estimate und der wahrscheinlichen Bandbreiten in den grauen Balken enthalten auch die AOGCMs im linken Teil der Abbildung, ebenso wie die Ergebnisse einer Hierarchie unabhängiger Modelle und Einschränkungen aufgrund von Beobachtungen.
    In dieser Bildunterschrift steckt implizit die Vermutung, dass die schwarze Linie vor dem Jahr 2000 eine von Modellen nach dem Jahr 2000 erzeugte Simulation ist (Fettdruck von mir). Die orange Linie kennzeichnet einen konstanten CO2-Gehalt, und die Tatsache, dass es sich dabei um eine  nahezu flach verlaufende Linie handelt zeigt, dass das IPCC zu jener Zeit glaubte, dass Veränderungen des CO2-Gehaltes der einzige Prozess war, der zu Temperaturänderungen auf der Erde führen könnte. Ich weiß nicht, ob die Szenarien B1 bis A1F1 alle die gleiche oder unterschiedliche Trajektorien zunehmender CO2-Konzentration verwenden. Was ich aber sicher weiß ist, dass es für Modelle physikalisch unmöglich ist, einen breiten Bereich physikalischer Input-Variablen zu verarbeiten, die für das Jahr 1900 initiiert, eng ausgerichtet wurden und dann im Jahr 2000 konvergieren, wie hier gezeigt. Es ist eine physikalische Unmöglichkeit, wie die IPCC-Modelle aus dem Jahr 1990 gezeigt haben (Abbildung 1).
    Wie also sehen die Simulationen aus dem Jahr 2007 im Vergleich zur Realität aus?

    Abbildung 8*: Vergleich der AR 4-Modelle mit der Realität. Seit dem Jahr 2000 verläuft die Realität nahe der unteren Grenze der Modelle, wie von Roy Spencer und vielen anderen hervorgehoben worden ist. Falls überhaupt, passt die Realität zum Modell mit dem anthropogenen Antrieb Null, gezeigt in orange.
    [*Siehe Anmerkung am Ende dieser Übersetzung!]
    Beim vorigen Mal musste ich 0,6°C abziehen, um die Realität mit den IPCC-Modellen passend zu machen. Jetzt muss ich 0,6°C addieren, um auf das HadCRUT4-Werte zu kommen. Und der Luxus, die Historie ab dem Jahr 1850 abzubilden, wurde jetzt verkürzt und läuft ab dem Jahr 1900. Die Simulationen vor dem Jahr 2000 passen ziemlich gut zu den gemessenen Temperaturen seit 1940, obwohl wir schon wissen, dass es für die Simulationen vor 2000 unmöglich ist, durch eine große Anzahl unterschiedlicher Computer-Modelle erzeugt worden zu sein, die programmiert worden sind, um unterschiedliche Dinge zu tun – wie kann das sein? Nach dem Jahr 2000 scheint die Wirklichkeit am besten zur orangefarbenen Version zu passen ohne CO2-Anstieg/Modell ohne anthropogenen Antrieb.
    Von 1900 bis 1950 reproduzieren die vermeintlichen Simulationen die Realität überhaupt nicht gut (Abbildung 9). Die tatsächliche Temperaturaufzeichnung  zeigt einen steileren Gradienten als die Modellaufzeichnung. Und die Realität weist eine viel größere Variabilität infolge natürlicher Prozesse auf, die das IPCC in großem Umfang ignoriert.

    Abbildung 9: Von 1900 bis 1950 bilden die vermeintlichen AR 4-Simulationen die Realität nur sehr unzureichend ab. HadCRUT4 in blau.

    Abbildung 10: Die Sicht des IPCC aus dem AR 5 (2014). Die unbequeme Diskrepanz von 1900 bis 1950 aus dem AR 4 wird umgangen, indem man die Graphik einfach erst ab dem Jahr 1950 beginnen lässt. Die flache blaue Linie ist im Wesentlichen äquivalent zur flachen orangefarbenen Linie im AR 4.
    Der Fünfte Zustandsbericht AR 5 wurde in diesem Jahr veröffentlicht, und die gegenwärtige Sicht des IPCC auf die zukünftigen Temperaturen zeigt Abbildung 10 (6). Die unbequeme Diskrepanz von 1900 bis 1950 aus dem AR 4 wird umgangen, indem man die Graphik einfach erst ab dem Jahr 1950 beginnen lässt. Ein sehr einfaches Simulationsbild wird präsentiert. Zukünftige Temperatur-Trajektorien werden gezeigt für eine Bandbreite von repräsentativen Konzentrations-Verläufen [Representative Concentration Pathways (RCP)]. Dies ist das total falsche Verfahren, da das IPCC nicht mehr das Klima modelliert, sondern unterschiedliche menschliche, gesellschaftliche und politische Entwicklungen auswählt, die zu unterschiedlichen CO2-Trajektorien führen. Bei SkepticalScience werden diese Beschreibungen gezeigt (7):
    RCP2.6 wurde entwickelt vom IMAGE-Modellierungs-Team der PBL Netherlands Environmental Assessment Agency. Der Emissions-Verlauf ist in der Literatur für Szenarien repräsentativ, die zu sehr geringen Konzentrationen von Treibhausgasen führen. Es ist ein „Spitzenwert-und-Abnahme“-Szenario [a “peak-and-decline”  scenario]; das Niveau des Strahlungsantriebs erreicht zuerst einen Wert um 3,1 W/m² zur Mitte des Jahrhunderts und sinkt auf 2,6 W/m² bis zum Jahr 2100. Um dieses Niveau des Strahlungsantriebs zu erreichen, werden die Treibhausgas-Emissionen (und indirekt die Emissionen von Luftverschmutzern) substantiell mit der Zeit reduziert (Van Vuuren et al. 2007a)
    UND
    RCP8.5 wurde entwickelt mit dem MESSAGE-Modell und dem IIASA Integrated Assessment Framework durch das International  Institute  for  Applied  Systems  Analysis  (IIASA) in Österreich. Dieses RCP wird charakterisiert durch zunehmende Treibhausgas-Emissionen mit der Zeit, repräsentativ für Szenarien in der Literatur, die zu höheren Treibhausgas-Konzentrationen führen (Riahi et al. 2007).
    Dies ist wissenschaftliche Sprechweise à la Micky Maus. Im Wesentlichen zeigen sie, dass 32 Modelle, programmiert mit einem geringen zukünftigen Emissions-Szenario niedrigere Temperatur-Trajektorien aufzeigen als 39 Modelle mit hohen zukünftigen Emissions-Trajektorien.
    Die Modelle beginnen mit dem Jahr 2005 (der bessere Weg, den Beginn auf das Jahr 2000 zu legen wie im AR 4 wurde einkassiert), und von 1950 bis 2005 wird behauptet, dass 42 Modelle eine vernünftige Version der Realität abbilden (siehe unten). Wir wissen nicht, ob (wenn überhaupt) einige der 71 Modelle nach dem Jahr 2005 in der Gruppe vor 2005 enthalten sind. Wir wissen aber, dass die Gruppe vor 2005 aktuelle CO2-Konzentrationen zur Grundlage haben, und da sie alle eng beieinander liegen, müssen wir annehmen, dass sie alle ähnliche Klimasensitivitäten aufweisen.
    Was der Leser wirklich sehen möchte ist, wie variierende Klimasensitivitäten die unterschiedlichen Modelle beeinflussen unter Verwendung fixierter CO2-Trajektorien, und das hat man eindeutig nicht getan. Die Modellierungsarbeit in Abbildung 10 ist effektiv wertlos. Nichtsdestotrotz wollen wir schauen, wie das im Vergleich zur Realität aussieht:

    Abbildung 11: Vergleich der Realität mit Modellszenarien aus dem AR 5.
    Mit Modellbeginn im Jahre 2005 haben wir nur 8 Jahre, um die Modelle mit der Realität zu vergleichen. Dieses Mal muss ich von HadCRUT4 0,3°C abziehen, um Übereinstimmung mit den Modellen zu erreichen. Vor 2005 bilden die Modelle vermeintlich die Realität seit 1950 ab. Vor 1950 wird uns eine Ansicht verwehrt, wie die Modelle damit aussahen. Nach 2005 ist klar, dass die Realität entlang der unteren Grenze der Bandbreite der beiden Unsicherheitsbereiche verläuft, die geplottet sind. Dies ist eine Beobachtung, die auch viele andere gemacht haben (z. B. 1).

    Abschließende Kommentare

    • Um Übereinstimmung der IPCC-Modelle mit der HadCRUT4-Wirklichkeit zu erzielen, müssen folgende Temperatur-Korrekturen angebracht werden: 1990 +0,5; 2001 -0,6; 2007 +0,6; 2014 -0,3. Mir fällt kein guter Grund ein, das Temperatur-Datum ständig zu ändern außer um eine Barriere vor der Verifikation der Modellergebnisse zu errichten.
    • Der Vergleich der Modelle mit der Realität wird ernstlich behindert durch die armselige Art und Weise, wie das IPCC die Daten präsentiert. Im Jahre 1990 wurden sie noch korrekt gezeigt, das heißt, alle Modelle begannen ab 1850 zu laufen und zeigten die gleichen CO2-Emissions-Trajektorien. Die Variationen der Modellergebnisse werden konsequent durch physikalische Parameter wie der Klimasensitivität kontrolliert, und mit den seitdem vergangenen Jahren ist es geradlinig, die Modelle auszuwählen, die die beste Übereinstimmung mit der Realität zeigen. Im Jahre 1990 war ziemlich klar, dass es das „Low-Modell“ war, das fast mit Sicherheit auf eine geringe Klimasensitivität hindeutete.
    • Es gibt keinen guten wissenschaftlichen Grund für das IPCC, heute nicht mehr das korrekte, im Jahre 1990 entwickelte Verfahren zu übernehmen außer dem, die Tatsache zu verschleiern, dass die Sensitivität des Klimas in bezug auf CO2 vermutlich deutlich unter 1,5°C liegt, basierend auf der Aussage von mir und anderen, dass eine Komponente der Erwärmung im 20. Jahrhundert natürlichen Ursprungs ist.
    • Im Jahre 1990 hatte das IPCC eine Bandbreite von 1,5 bis 4,5°C als Klimasensitivität angegeben. 2014 war es immer noch eine Bandbreite von 1,5 bis 4,5°C. 24 Jahre sind vergangen, Milliarden Dollar sind ausgegeben worden, und absolut nichts wurde gelernt! Tomaten wurden auf die Augen von Politikern, Regierungen und der Öffentlichkeit geworfen bis hin zu einer totalen Gehirnwäsche. Billionen Dollar wurden fehlgeleitet und in die Energie-Infrastruktur gesteckt, die ultimativ zu weit verbreitetem Elend unter Millionen führen wird.
    Falls eine kommerzielle Forschungsorganisation in UK der Verdrehung von Forschungsergebnissen überführt würde, nur um Geld zu verdienen und ohne Rücksicht auf die öffentliche Sicherheit, würde rasch die Polizei an deren Tür klopfen.
    References
    [1] Roy Spencer: 95% of Climate Models Agree: The Observations Must be Wrong
    [2] Wood For Trees
    [3] IPCC: First Assessment Report – FAR
    [4] IPCC: Third Assessment Report – TAR
    [5] IPCC: Fourth Assessment Report – AR4
    [6] IPCC: Fifth Assessment Report – AR5
    [7] Skepticalscience: The Beginner’s Guide to Representative Concentration Pathways
    Link: http://wattsupwiththat.com/2014/06/12/the-temperature-forecasting-track-record-of-the-ipcc/
    Übersetzt von Chris Frey EIKE
    HINWEIS: Im Original ist die Nummerierung der Abbildungen offenbar durcheinandergeraten, taucht doch die Bezeichnung ‚Abbildung 7‘ zweimal hintereinander auf. Ich habe bei der Übersetzung die Nummerierung aber fortlaufend vorgenommen, aus der zweiten Abbildung 7 also die Abbildung 8 gemacht, und auch die folgenden Nummern angepasst.  Im Text wird auf die Abbildungen Bezug genommen., und da bin ich nicht ganz sicher, ob die von mir korrigierte Zuordnung noch passt. Anm. d. Übers.