Die Energieausbeute von Solar PV

Man hat mich aufgefordert, einen Beitrag zu schreiben, in dem das Konzept der Energie-Ausbeute im Verhältnis zur Energie-Investition begutachtet wird, und als Ersten Schritt in diese Richtung habe ich eine E-Mail an meine State-side-Freunde Charlie Hall, Nate Hagens und David Murphy geschrieben mit der Bitte, mir Literatur aus jüngerer Zeit zu übermitteln. Die erste Studie stammt von Ferruccio Ferroni und Robert J. Hopkirk und trägt den Titel [übersetzt; Originaltitel siehe unten] „Energieausbeute im Verhältnis zu Energieinvestition (ERoEI) für Photovoltaik-Solarsysteme in Gebieten mit moderater Einstrahlung (1). Die Ergebnisse sind so Atem beraubend, dass ich diesen Beitrag sofort schreiben musste.

Was also ist ERoEI? Es ist einfach das Verhältnis zwischen Energieausbeute und der Energiemenge, die verbraucht wird zur Erzeugung dieser Energieausbeute:

ERoEI = erzeugte Energie / investierte Energie

Einfach, nicht wahr? Nun, ganz so einfach, wie es auf den ersten Blick aussieht, ist es nicht. Um den Punkt herauszuarbeiten: verwendet man PV, wird die erzeugte Energie abhängig sein von Breite, der Sonnenscheindauer, der Ausrichtung der Paneele und auch von der Lebensdauer der Paneele selbst. Und wie misst man die investierte Energie bzw. zeichnet diese auf? Misst man einfach den von der PV-Fabrik verbrauchten Strom, oder fügt man noch die von den Arbeitern, den Bergbauarbeitern verbrauchte Energie hinzu, die das Silikon und die Kohle abgebaut haben, um den Strom herzustellen? Ferroni und Hopkirk beleuchten all diese Details und kommen auf ein Verhältnis ERoEI von Solarpaneelen in gemäßigten Breiten von 0,83. Solar-PV ist also keine Energiequelle, sondern eine Energiesenke. Das gilt für die Schweiz und Deutschland. In Aberdeen dürfte es noch viel schlechter sein!

Warum ist ERoEI so wichtig? Es ist ein für die meisten Individuen fremdes Konzept, einschließlich vieler Ingenieure, Beschäftigten im Energiesektor, Akademiker und Politiker. Das damit in Beziehung stehende Konzept der Gesamt-Energie [net energy] ist definiert als:

Net Energy = ERoEI – 1 (wobei 1 die investierte Energie ist).

Die Gesamtenergie ist der Überschuss an Energie, der von unserem Energie-Input übrig bleibt und den wir gebrauchen, um die Gesellschaft mit Energie zu versorgen – Krankenhäuser bauen, Schulen, Frachtflugzeuge und zum Anbau von Nahrungsmitteln. In der Vergangenheit lag das ERoEI unserer primären Energiequellen – Öl, Gas und Kohle – wahrscheinlich über 50, das heißt, dass eimerweise billige Energie übrig war, um unsere gesamte Infrastruktur einzurichten und alle Menschen zu ernähren, die heute die Erde bewohnen. Aber mit der Gesamtenergie-Gleichung für Solar-PV sieht es so aus:

0,83 – 1 = – 0,17

… Brüssel, wir haben ein Problem!

Wie in aller Welt kann es also sein, dass wir in großem Umfang Apparate zu installieren, die offensichtlich Energie verbrauchen anstatt sie zu erzeugen? Die einfache Antwort lautet, dass unser Finanzsystem, Gesetze und Subventionen in der Lage sind, die Gesetze von Physik und Thermodynamik so lange zu verbiegen, bis wir ein ausreichend hohes ERoEI erreichen, um das ganze System am Laufen zu halten und um parasitäre Erneuerbare zu subventionieren. Man versuche mal, Silikon abzubauen und zu veredeln mittels einer elektrischen Bergbau-Maschine, die von der Sonne angetrieben wird – und die Gesetze der Physik werden sich sehr rasch wieder etablieren.

Einfach ausgedrückt, die in Nordeuropa installierte PV kann man betrachten als Kohle, die in China verbrannt wird zur Stromerzeugung hierzulande. Sämtliche CO2-Emissionen, die die Motive für PV stützen, erfolgen in China. Nur im Falle eines hohen Energie-Gewinns durch die PV-Paneele würden durch Solar-PV CO2-Emissionen reduziert. Mehr dazu weiter unten.

[Hervorhebung vom Übersetzer].

Energie-Ausbeute

Die Berechnungen basieren alle auf die erzeugte Energie von 1 m² PV.

Theoretische Berechnungen der Hersteller, was PV-Module erzeugen sollten, berücksichtigen nicht die operationelle Einbuße durch Staub auf der Oberfläche. Auch schlechte Ausrichtung, Ausfall einer Einheit oder deren Bruch finden keinen Eingang in die Berechnungen, obwohl derartige Störungen sehr verbreitet sind.

Die tatsächlich erzeugte Energie, errechnet mittels Schweizer Statistiken, ergibt sich zu 106 kWe/m² pro Jahr.

Dann müssen wir noch wissen, wie lange die Paneele halten. Die Hersteller behaupten 30 Jahre, jedoch zeigen empirische Beweise, dass die mittlere Lebensdauer in Deutschland lediglich 17 Jahre beträgt. Ferroni und Hopkirk rechnen großzügig mit einer Lebensdauer von 25 Jahren.

Kombiniert man all diese Faktoren, kommt man auf eine Zahl von 2203 kWe/m² während der Lebenszeit einer Einheit.

Aufgewendete Energie

Die Berechnung der aufgewendeten Energie erfolgt ebenfalls auf der Grundlage von 1 m² PV-Fläche und verwendet die Material-Masse als Proxy für die verbrauchte Energie und das BIP der Energiedichte als Proxy für den Arbeits-Term in der Gleichung.

Zwei verschiedene Verfahren zur Erfassung der aufgewendeten Energie werden beschrieben:

ERoEI (IEA)

ERoEI (Ext)

Dabei steht IEA für die Verfahren der International Energy Agency und Ext für die erweiterte Grenze wie von Murphy und Hall 2010 beschrieben (2, 3). Der Unterschied zwischen beiden Verfahren ist, dass die IEA dazu tendiert, sich auf die beim Industrieprozess verbrauchte Energie zu konzentrieren, während das erweiterte verfahren von Murphy und Hall 2010 auch Aktivitäten wie Bergbau, Veredelung und Transport des Silikon-Rohmaterials enthält.

Meiner Ansicht nach folgen Ferroni und Hopkirk korrekt dem erweiterten ERoEI-Verfahren von Murphy und Hall. In ihre Berechnungen gehen ein:

Material zur Herstellung der Paneele, aber auch zur Aufrichtung und Installation derselben

Arbeit in jedem Stadium des Prozesses, vom Abbau bis zur Entsorgung

Herstellungsprozess, d. h. die in den verschiedenen Fabriken verbrauchte Energie

Fehlerhafte Paneele, die aussortiert werden

Kapital, welches angesehen wird als die Verwertung bereits bestehender Infrastruktur und Energieinvestitionen

Anschluss der lückenhaften PV an das Netz

Und daraus ergibt sich das Resultat von ERoEI:

2203 : 2664 kWe/m² = 0,83

Der einzige Punkt, den ich in Frage stellen möchte, ist der Einbezug der Energiekosten des Kapitals. Alle erzeugte Energie kann unterteilt werden in Energieverbrauch zur Energiegewinnung und Energie für die Gesellschaft, und ich würde fragen, ob die Kapitalkosten nicht in die letztere Kategorie fallen.

Aber es scheint eine wesentliche Auslassung zu geben, und zwar die Energiekosten der Verteilung. In Europa entfallen etwa 50% der Stromkosten (ohne Steuern) auf Netzausbau und Wartung desselben. Würde man dies auch noch in die Rechnung eingehen lassen, ergäbe sich ein weiterer tiefer Zacken im ERoEI.

Dieser ERoEI-Wert ist niedriger als der Wert 2, wie er von Prieto und Hall (4) angegeben wird und erheblich niedriger als der Wert 5 bis 6, den die IEA nennt (5). Ein Grund hierfür ist, dass die jetzige Studie (1) speziell für Mittlere Breiten gilt. Aber Ferroni und Hopkirk führen auch detailliert Auslassungen der IEA auf, die folgendermaßen zusammengefasst werden können:

a) Der Energiefluss über die Systemgrenzen hinweg und dessen Investition für die Arbeit ist nicht enthalten.

b) Der Energiefluss über die Systemgrenzen hinweg und dessen Investition für das Kapital ist nicht enthalten.

c) Die für die Integration des PV-erzeugten Stromes in eine komplexe und flexible Stromversorgung sowie in ein Verteilungssystem aufgewendete Energie ist nicht enthalten (die Energieerzeugung folgt nicht dem Bedarf der Verbraucher).

d) Die IEA-Leitfäden spezifizieren den Gebrauch eines „primären Energie-Äquivalents“ als eine Grundlage. Da jedoch die erzeugte Energie als sekundäre elektrische Energie gemessen wird, nämlich dem Energieträger selbst, und da etwa 64% bis 67% der aufgewendeten Energie für die Herstellung der PV-Module und -Paneele ebenfalls in Form von Strom vorliegt (Weissbach et al.2013), und da außerdem die Gesetze der Konversion vom Träger oder sekundärer Energie zurück zu primärer Energie nicht wissenschaftlich perfekt sind (Giampietro und Sorman 2013), ist es sowohl einfacher als auch angemessener, die aufgewendete Energie als elektrische Energie zu bezeichnen. Der direkte Beitrag fossiler Treibstoffe, zum Beispiel um die Energie für die Prozesswärme zur Verfügung zu stellen, muss ebenfalls in sekundäre Energie konvertiert werden. Die Konversion der internen chemischen Energie in fossilen Treibstoffen zu Strom wird in modernen Kraftwerken erreicht mit einer Effizienz von 38%, jedenfalls dem statistischen Protokoll von BP zufolge (BP Statistical Review of World Energy, June 2015). In dieser Studie wollen wir zur Vermeidung von Fehlern bei der Konversion weiterhin elektrische (d. h. sekundäre) Energie verwenden mit kW he/m² als zugrunde liegende Energieeinheit.

e) Die angegebene Lebensdauer der Paneele von 30 Jahren muss aufgrund der Erfahrungen bis jetzt als unrealistisch angesehen werden.

f) Die Energieausbeute kann und sollte auf tatsächlichen experimentellen Daten beruhen, gemessen auf dem Feld. Wendet man diese Prozedur an, wird man Werte erhalten, die allgemein viel niedriger liegen als die von Investoren und Politikern erwartete Erzeugung.

Den Punkten a), c) und f) würde ich sofort zustimmen. Beim Punkt b) bin ich mir nicht sicher, und Punkt e) wird Gegenstand von Diskussionen sein. d) ist eine sehr komplexe Angelegenheit und im Grunde das, was ich in meinem jüngsten Beitrag hier beschrieben habe. Ich stimme Ferroni und Hopkirk zu, wenn sie schreiben, dass Einheiten von Strom durchweg verwendet werden müssen, aber falls die IEA die verbrauchte Energie für thermische Verluste in Kraftwerken hochgerechnet hat, würde dies ihre investierte Energie zunehmen lassen und ihre Schätzungen von ERoEI drücken und nicht aufblähen. Dieser Punkt bedarf also noch der Klärung.

Auswirkungen auf die Umwelt

Der Hauptgrund für die Hinwendung zu Solar-PV in Europa ist die Reduktion der CO2-Emissionen. Die Europäische Kommission und die meisten Regierungen in Europa haben in Wolkenkuckucksheim geweilt, als sie CO2-intensive Industrien nach China zu übersiedeln erlaubten, damit die Emissionen in Europa zurückgehen, während sie in China steigen, und weil sie uns glauben machen wollten, dass der aus China importierte Stahl irgendwie emissionsfrei ist.

Das Beispiel Solar-PV rückt dies scharf in den Mittelpunkt. Geht man davon aus, dass der Haupt-Energie-Input von Kohle stammt (und schmutziger Kohle mit geringer Effizienz obendrein) und mit einem ERoEI <1, führt die Stromerzeugung mittels PV in Wirklichkeit zu höheren Emissionen, als wenn man die Kohle gleich von Anfang an zur Stromerzeugung verbrannt hätte. Aber es ist noch viel schlimmer. Alle Emissionen, die mit 25 Jahren der Stromerzeugung assoziiert sind, befinden sich jetzt in der Atmosphäre und würden die globale Erwärmung noch viel schlimmer machen als es ohne PV der Fall wäre [so es diese globale Erwärmung wirklich gibt und so sie wirklich schlimm wäre. Anm. d. Übers.]

Und es wird sogar noch schlimmer! Zur Herstellung der PV-Paneele braucht man außerdem noch viele hässliche Chemikalien:

Viele potentiell gefährliche Chemikalien werden während der Herstellung der Solarmodule gebraucht. Erwähnt werden sollen hier Stickstoff-Trifluorid (NF3; Arnold et al.2013). Dieses Gas wird gebraucht, um verbleibende, mit Silizium kontaminierte Zusätze in den Herstellungsräumen zu reinigen. Dem IPCC zufolge hat dieses Gas ein Potential zur globalen Erwärmung 16.600 mal so hoch wie CO2. Zwei weitere, ähnlich unerwünschte „Treibhaus“-Gase sind Hexafluoräthan (C2F6) und Schwefel-Hexafluorid (SF6).

Und:

Das mittlere Gewicht eines PV-Moduls beträgt etwa 16 kg/m² und das Gewicht des stützenden Systems, der Umwandler und dem Gleichgewicht des Systems mindestens 25 kg/m² (Myrans 2009). Das Gewicht des Betons ist nicht enthalten. Auch sind die meisten verwendeten Chemikalien wie Säuren, Basen, Beizen, elementare Gase, Dotierstoffe [?], photo-lithographische Chemikalien usw. nicht enthalten, da deren Verbrauch nur gering ist. Aber wir müssen Salzsäure (HCl) hinzufügen: Die Herstellung des Solar-Siliziums für ein Quadratmeter Paneelfläche erfordert 3,5 kg konzentrierte Salzsäure.

Vergleich mit Kernkraft

Die Studie zeigt einige interessante Vergleiche mit Kernkraft. Schauen wir zunächst auf das pro Einheit erzeugten Stromes benötigte Material:

● PV verbraucht 20,2 g pro kW he (hauptsächlich Aluminiumstahl und Kupfer)

● Ein Kernkraftwerk verbraucht 0,31 g pro kW he (hauptsächlich Stahl) für einen Nutzungsgrad [load factor] von 85%.

kW he = kilowatt hours electrical

Bezüglich der Arbeitskraft stellen die Autoren fest:

Die in der Erneuerbaren-Industrie involvierten Industrien werben mit ihrer Fähigkeit, viele neue Arbeitsplätze zu schaffen.

Während natürlich die beste Energieform so wenig Arbeitskraft wie möglich erfordern sollte. An einem Punkt, wo ERoEI 1 erreicht, ist jedermann im Bereich Energieerzeugung tätig, und die Gesellschaft, so wie wir sie kennen, kollabiert!

● Solar-PV erzeugt 94,4 Arbeitsplätze pro installierter MW, adjustiert für den Kapazitätsfaktor.

● Kernkraft erzeugt 13 Arbeitsplätze pro installierter MW, darin enthalten sind Aufbau, Betrieb und Stilllegung.

Das könnte für Politiker großartig aussehen, aber es ist diese Ineffizienz, die Solar-PV teuer macht und ERoEI killt. Und schaut man auf die Kapitalkosten:

● Solar-PV kostet CHF 6000 pro installiertem KW (CHF = Schweizer Franken)

● Kernkraft kostet CHF 5500 pro installierten KW.

Aber normalisiert hinsichtlich der Kapazitätsfaktoren von 9% für Solar und 85% für Kernkraft erhalten wir als effektive Kapazität

66.667 : 6471 = 10,3

Fazit: Solar-PV ist zehn mal so kapitalintensiv wie Kernkraft.

Energieumsatz

Wenn ERoEI sich 1 nähert oder unter diesen Wert sinkt, betreten wir den Bereich Energieumsatz, der in unserem Energiesystem ziemlich verbreitet ist. Konvertieren wir beispielsweise Kohle zu Strom, verlieren wir etwa 62% der thermischen Energie. Die Konversion von Kohle und anderer Rohmaterialien in ein PV-Paneel könnte unter bestimmten Bedingungen sinnvoll sein. Zum Beispiel können PV und ein Batteriesystem afrikanische Dörfer mit etwas Strom versorgen, wenn diese keinerlei Aussicht haben, in absehbarer Zeit an ein Netz angeschlossen zu werden. Gleiches gilt für eine Berghütte. Individuen, die sich Sorgen bzgl. Blackouts machen, könnten ebenfalls ein PV-Batteriesystem als Backup in Erwägung ziehen.

Aber hinsichtlich des Zieles der Reduktion von CO2-Emissionen scheitert PV kläglich in Mittleren Breiten. Es fügt dem System einfach Kosten und Rauschen hinzu. In sonnigeren Klimaten könnte sich die Lage verbessern.

Abschließende Bemerkungen

Die Ergebnisse dieser einen Studie zeigen, dass die Installation von Solar-PV in Mittleren Breiten, also in Ländern wie Deutschland und UK, eine einzige Verschwendung von Zeit, Energie und Geld ist. Alles, was man erreicht ist, dass die Strompreise steigen und das Netz destabilisiert wird. Verteidiger von erneuerbarer Energie und Solar werden darauf verweisen, dass dies nur eine einzige Studie ist und dass die von Ferroni und Hopkirk verwendeten Eingangsparameter diskussionswürdig sind. Aber es gibt gute Gründe zu glauben, dass die Ergebnisse ziemlich genau der Realität entsprechen. Zum Beispiel fanden Prieto und Hall ein ERoEI für Solar-PV = 2. Schaut man allein auf wolkige hohe und Mittlere Breiten, wird sich diese Zahl substantiell verkleinern.

Und man muss sich nur mal die unten gezeigten Outputs ansehen. Solar-PV erzeugt ein Tröpfeln im Winter und absolut gar nichts mehr bei der Bedarfsspitze gegen 18 Uhr. Und hierfür müssen gewaltige finanzielle Kosten und Energie aufgewendet werden, um dies zu kompensieren – und was die Erneuerbaren-Enthusiasten mit einem Schulterzucken vom Tisch wischen.

Abbildung 1, Quelle: UK Grid Graphed: Die Verteilung von Solarerzeugung in UK hat sich im Verlauf von 4 Jahren versiebenfacht. Aber 7 mal Tröpfeln im Winter ist immer noch tröpfeln. Die große Menge Energie in diesen teuren Objekten bringt uns gar nichts, wenn wir es am meisten brauchen.

Energy Matters hat eine gute Sucheinrichtung oben rechts. Man gebe Solar-PV ein, und ich war überrascht zu sehen, wie viele Artikel Roger und ich geschrieben haben und sie alle mehr oder weniger zu den gleichen Ergebnissen kommen. Ich habe diese Links unten an diesen Beitrag angefügt.

Abbildung 2: Eine typische Solar-Installation in Aberdeen, wo sich die Paneele auf einem nach Osten geneigten Dach befinden, während das ideale, nach Süden zeigende Dach frei davon ist. Dies ist ein Symbol für Dummheit und Ignoranz, die inzwischen auch in der Akademiker-Zunft Einzug hält. Hat irgendjemand eine Universität gesehen, die sich keine Solarpaneele auf das Dach gepappt hat? Ich habe Akademien argumentieren hören, dass die Ausrichtung in Schottland gar keine Rolle spielt, und damit könnten sie recht haben. Ich wage zu sagen, dass es kaum einen Unterschied hinsichtlich des Outputs ausmachen würde, wenn man die Solarpaneele einfach in ihrer Verpackung belässt. Akademiker sind natürlich immer stärker darauf bedacht, die Regierungspolitik zu unterstützen. Man beachte, dass sonnige Tage in Aberdeen nur extrem selten auftreten. Und im Winter geht die Sonne gegen 10 Uhr auf und gegen 15 Uhr unter.

Vor zwei Jahren wetterte ich gegen die Zufalls-Ausrichtung von Solarpaneelen in Aberdeen, und zwar in einem Beitrag mit dem Titel Solar Scotland. Und diese Zufalls-Orientierung wird zweifellos zu ernsthaft geringeren Werten von ERoEI führen. PV-Enthusiasten werden ohne Zweifel in ihren Gesamtenergie-Analysen davon ausgehen, dass alle Solarpaneele optimal ausgerichtet sind, während sie dies in der realen Welt von Ferroni und Hopkirk nicht sind. Ein gutes Rezept hierzu wäre die Streichung der Einspeisetarife für Systeme, die nicht optimal ausgerichtet sind, während man in Zukunft die Solar-PV-Einspeisetarife vollständig streicht.

Aber wie kann man erreichen, dass diese Botschaft auf der politischen Ebene gehört wird? Das finale Interview von David McKay war sehr aufschlussreich:

Der einzige Grund dafür, dass Solar überhaupt ein Thema wurde, war Demokratie. Die Parlaments-Abgeordneten wollten einen Solar-Einspeisetarif. Daher wurde gegen den Ratschlag der Bediensteten in den Ministerien ,Nein, wir sollten solar nicht subventionieren‘ diese Politik in Kraft gesetzt. Es gab außerdem sehr erfolgreiche Lobbyarbeit durch die Solar-Lobbyisten. Und so herrscht jetzt weit verbreitet dieser Glaube, dass Solar etwas Wunderbares ist, obwohl … UK eines der dunkelsten Länder der Welt ist.

Falls die Politiker jetzt nicht auf den Ratschlag eines der berühmtesten und angesehensten Energie-Analysten der Welt hören, dann, so glaube ich, werden sie auf niemanden hören. Aber mit der Zeit wird ihnen allmählich und immer mehr dämmern, welche Konsequenzen es hat, wenn ihre Wähler über die Energie-Klippe stürzen.

References

[1] Ferruccio Ferroni and Robert J. Hopkirk 2016: Energy Return on Energy Invested (ERoEI) for photovoltaic solar systems in regions of moderate insolation: Energy Policy 94 (2016) 336–344

[2] Murphy, D.J.R., Hall, C.A.S., 2010. Year in review-EROI or energy return on (energy) invested. Ann. N. Y. Acad. Sci. Spec. Issue Ecol. Econ. Rev. 1185, 102–118.

[3] Murphy, D.J.R., Hall, C.A.S., 2011. Energy return on investment, peak oil and the end of economic growth. Ann. N.Y. Acad. Sci. Spec. Issue Ecol. Econ. 1219, 52–72.

[4] Prieto, P.A., Hall, C.A.S., 2013. Spain’s Photovoltaic Revolution – The Energy Return on Investment. By Pedro A. Prieto and Charles A.S. Hall, Springer.

[5] IEA-PVPS T12, Methodology Guidelines on the Life Cycle Assessment of Photovoltaic Electricity – Report IEA-PVPS T12-03:2011.

Link: http://euanmearns.com/the-energy-return-of-solar-pv/

Übersetzt von Chris Frey EIKE




Vostok und die 8000-Jahre-Verzögerung

Wie am Ende dieses Beitrags diskutiert, muss in Betracht gezogen werden, dass die geochemischen Zyklen von CO2 und CH4 in Eis, Permafrost, terrestrischen und ozeanischen Biosphären sowie in der Tiefsee während glazialer Gefrier-/Auftauzyklen irgendwie in allgemeiner Weise mit der Temperatur korreliert sind. Diese Korrelation zeigt, dass CO2 und CH4 von der Temperatur kontrolliert werden, so dass es keinerlei Beweise dafür gibt, dass CO2 oder CH4 irgendwelche orbitalen Zyklen geschuldete Temperatursignale verstärken.

Einführung


Abbildung 1: Geogr. Lage der Antarktis, von Vostok und anderen Orten, an denen Eisbohrkerne gezogen worden sind
Die russische Antarktisstation Vostok liegt 1300 km vom Südpol entfernt und ziemlich genau in der Mitte des antarktischen Kontinents in einer Höhe von 3488 m ü. NN. Gegenwärtig gibt es dort im Mittel 2,6 mm Niederschlag pro Jahr. Die mittlere Temperatur beträgt -55°C, der Kälterekord liegt bei -89,2°C, also unter dem Gefrierpunkt von CO2. Vostok ist einer der lebensfeindlichsten Orte der Erde [und doch gibt es dort Leben! Anm. d. Übers.].
Es gibt eine ganze Historie des Erbohrens verschiedener Eisbohrkerne bei Vostok. Der wichtigste Bohrkern und Gegenstand dieses Beitrags wurde im Jahre 1995 erbohrt. Dieser Vostok-Eisbohrkern ist 3310 Meter lang und repräsentiert 422.766 Jahre Schneeakkumulation. Ein einzelnes Jahr wird demnach durch nur 7,8 mm Eis repräsentiert. Vostok ist eine sehr, sehr kalte Wüste, und die sehr langsame Eisakkumulation bringt signifikante Unsicherheiten in die Daten.
Neben den Eisbohrkernen ist Vostok berühmt für den unter dem Eis liegenden See, der als einer der größten Seen der Welt kartographiert worden ist, überdeckt er doch eine Fläche von 14.000 km². Es ist eindeutig unter dem Eis sehr viel wärmer als an der Oberfläche.
Abbildung 2 (oben rechts): Landschaft bei Vostok

Daten: Temperatur, CO2 und CH4

Beim Vergleich der Signale dieser drei physikalischen Elemente im Vostok-Bohrkern ist es wichtig zu verstehen, dass das Temperatursignal durch Wasserstoff getragen wird: die Menge von Deuterium-Isotopen im Wasser, aus dem sich das Eis bildet. Die Signale bzgl. CO2 und CH4 kommen dagegen aus im Eis eingeschlossenen Luftbläschen. Diese im Eis eingeschlossenen Luftbläschen werden immer als jünger erachtet als das Eis um sie herum, was der Zeitverschiebung zwischen Schneefall und Eisbildung um das Luftbläschen herum geschuldet ist. In Vostok beträgt diese zeitliche Verzögerung zwischen Schneefall und Eisbildung um das Bläschen zwischen 2000 und 6500 Jahre. Daher wird eine substantielle Korrektur angebracht, um das Alter der Luftbläschen an das Alter des Eises anzugleichen, und die Genauigkeit dieses Vorgangs muss man im Hinterkopf behalten bei Interpretationen. Die Vostok-Daten stehen hier zum Download bereit.
Man beachte, dass die Zeit in allen meinen Graphiken von rechts nach links läuft, wobei der „heutige Tag“ links liegt. Als der heutige Tag (Jahr Null) wird das Jahr 1995 erachtet, also das Jahr der Erbohrung dieser Kerne. Die GT4-Zeitskala von Petit et al. wird verwendet (1).
Die Methan-Konzentrationen in Luftbläschen und Temperaturvariationen in Vostok sind unglaublich gut gleichlaufend, vor allem am Ende und bei wiedereinsetzenden Vereisungen, wenn die Temperaturänderungen maximal sind (Abbildung 3).

Abbildung 3: Methan- und Temperaturvariationen. Man beachte, wie Methan und Temperatur besonders stark gleich laufen am Ende einer Eiszeit und während der nachfolgenden Rückkehr zu glazialen Bedingungen.
Dies zeigt, dass die Kalibrierung von Eiszeit und Gaszeit gut ist. Aber zeigt es auch, dass Methan-Variationen von ± 200 ppmd (parts per Milliarde) die orbitale Kontrolle von Vereisungen verstärken?
Das Passformat von CO2 zur Temperatur ist tatsächlich nicht einmal annähernd so gut wie für CH4. Es gibt eine persistente Tendenz, dass CO2 der Temperatur hinterher hinkt, und dieser Zeitverzögerung ist am stärksten ausgeprägt am Beginn jedes glazialen Zyklus‘, wobei das CO2 der Temperatur um viele tausend Jahre hinterher läuft (1) (Abbildung 4).

Abbildung 4: CO2 und Temperatur scheinen im Großen und Ganzen gut korreliert, aber es gibt ein paar signifikante Abweichungen. Am Ende von Eiszeiten (Terminationen) ist das Alignment genauso gut wie für Methan. Aber während des Rückfalls in die nachfolgende Vereisung gibt es eine Zeitverzögerung zwischen CO2 und Temperatur von vielen tausend Jahren. Petit et al (1) haben dies bemerkt, aber keine Erklärung angeboten. Um jedoch der Bedeutung der Beobachtung Rechnung zu tragen ziehen sie es stattdessen vor, nicht haltbare Behauptungen aufzustellen darüber, dass CO2 und CH4 orbitale Antriebe verstärken.
Es ist daher keine Überraschung, dass CO2 und CH4 signifikante Unterschiede zeigen (Abbildung 5) hinsichtlich der Zeitverzögerung von CO2 und CH4 ähnlich der Zeitverzögerung zwischen CO2 und Temperatur.

Abbildung 5: CO2 läuft Methan zeitlich hinterher ähnlich der Art und Weise, wie es der Temperatur hinterherläuft. Diese Zeitverzögerung ruft nach einer Erklärung, deren Wurzeln in einer geochemischen Umgebung zu suchen sind, in der beide Gase emittiert und abgeschieden werden. Petit et al (1) räumen der Erklärung der physikalischen Prozesse hinter CO2- und Methan-Variationen erstaunlich wenig Raum ein.
Tatsächlich scheinen Petit et al (1) mehr darauf bedacht gewesen zu sein, die Ähnlichkeiten zu betonen als die bedeutenden Unterschiede darzustellen…
Die Gesamt-Korrelation zwischen unseren CO2- und CH4-Aufzeichnungen und der isotopischen Temperatur der Antarktis ist bemerkenswert ( r2 1⁄4 0:71 und 0.73 jeweils für CO2 und CH4). Diese hohe Korrelation zeigt, dass CO2 und CH4 zu glazialen/zwischenglazialen Änderungen während des gesamten Zeitraumes beigetragen haben können durch Verstärkung des orbitalen Antriebs zusammen mit Albedo und möglicherweise anderen Änderungen.
Tatsächlich wird die hohe Korrelation am besten dadurch erklärt, dass sowohl CO2 als auch CH4 auf Temperaturänderungen reagieren und diese „nicht verursachen“. Und aus diesen Daten gehen Null Beweise hervor, dass eine Verstärkung durch den orbitalen Antrieb stattgefunden hat, was jedoch nicht heißt, dass das nicht doch der Fall war.
Abbildung 6 zeigt eine erweiterte Sicht der letzten Vereisung, in der man ziemlich klar erkennen kann, dass es eine Zeitverzögerung von etwa 8000 Jahren zwischen fallender Temperatur und CO2-Rückgang gibt. Die Temperatur fiel auf Eiszeitbedingungen (-6°C) mit zwischeneiszeitlichen CO2-Werten von 265 ppmV. Methan fiel sofort mit der Temperatur, CO2 aber nicht. Dies zeigt, dass das CO2 kaum Kontrolle ausübt auf die wesentliche Struktur des glazialen Zyklus‘, der durch orbitale Antriebe kontrolliert wird. Ähnliche Zeitverzögerungen gibt es zu Beginn jedes einzelnen glazialen Zyklus‘ (Abbildung 4). Dies ist eindeutig ein wichtiger und reproduzierbarer geologischer Prozess oder eine Abfolge von Prozessen.

Abbildung 6: Details der letzten 150.000 Jahre zeigen, wie CO2 der Temperatur um etwa 8000 Jahre hinterher läuft nach der Eemian-Zwischeneiszeit. Volle Eiszeitbedingungen etablierten sich bei zwischeneiszeitlichen CO2-Konzentrationen.

Diskussion

Die Zyklizität von CO2 und Methan muss in Termen von Flüssen, Quellen und Senken interpretiert werden. Steigt die Konzentration, zeigt dies, dass die Erzeugungsrate höher ist als die Rate des Ausfallens und umgekehrt. Betrachtet man glaziale Zyklen, gibt es eine Vielzahl von Prozessen, von denen man sich vorstellen kann, dass sie die Flüsse sowohl von CO2 als auch von CH4 beeinflussen. Beispiele hierfür sind Steigen und Fallen des Meeresspiegels, Drainage von Land, Wachstum und Verfall von Vegetation, Bodenveränderungen, Eisschilde und Schmelzen des Permafrostbodens, Änderungen der Bioproduktivität in den Ozeanen, Änderungen der Ozean-Zirkulation und hier im besonderen thermohaline Zirkulation.
CH4 und CO2 steigen gemeinsam mit der Temperatur am Ende der Eiszeiten, und man ist in Versuchung zu erklären, dass die Quelle dieser beiden Gase die gleiche ist. Dies ist wahrscheinlich nur teilweise richtig. Die bekannteste Quelle für CH4 ist wahrscheinlich der auftauende Dauerfrostboden unter und neben den schmelzenden Eisschilden der Nordhemisphäre. Dabei wird auch etwas CO2 freigesetzt. Das Eis selbst enthält ebenfalls kleine Mengen beider Gase. Als die wahrscheinlichste Quelle für CO2 werden die Ozeane betrachtet, wo sich erwärmendes Meerwasser weniger CO2 halten kann. So ist der gleichlaufende Anstieg von CH4 und CO2 mit der Temperatur geradlinig zu erklären in Zeiten rapider Erwärmung und schmelzender Eisschilde. Stoppt die Erwärmung, stoppt auch der Anstieg von CH4 und CO2, aber gerade dann, wenn die Treibhausgase maximal enthalten sind, wird es wieder kälter. Dies allein zeigt, dass Treibhausgase nur eine untergeordnete Rolle bei der Modulation glazialer Temperaturen und Klimate spielt.
Warum also nehmen CH4 und CO2 während Abkühlung in der Folge nicht ebenfalls gleichlaufend ab? Es gibt keine echte Senke für CH4. Stattdessen wird es in der Atmosphäre weitgehend zerlegt durch eine Reaktion mit Sonnenlicht und Sauerstoff, woraus sich dann CO2 bildet. Die Verweildauer ist ziemlich kurz, etwa 10 Jahre. Der den Beginn einer Zwischeneiszeit markierenden rapiden Erwärmung folgt normalerweise kurz darauf eine rapide Abkühlung. Man kann sich vorstellen, dass der Permafrostboden allmählich wieder gefriert, was zu einer Reduktion des Methanflusses führt. Die Rate der Zerlegung übersteigt die Rate der Freisetzung, und die Konzentration nimmt ab.
Die große Zeitverzögerung für CO2 ist nicht so einfach zu erklären. Am Ende einer Eiszeit sowie während der Phase der Erwärmung muss man von sich polwärts ausbreitenden und verstärkt wachsenden Wäldern ausgehen. Ich kann nur vermuten, dass die Masse der terrestrischen Biomasse zunimmt. Ich weiß nicht, was mit der Masse der ozeanischen Biosphäre passiert, die in kaltem Wasser oftmals produktiver ist. Ich kann auch spekulieren, dass die thermohaline Zirkulation gefestigt oder verstärkt wird, was ein teilweises Ausgasen der kohlenstoffreichen Tiefsee ermöglicht. Es ist schwierig, diese Puzzlesteinchen in quantitativer Weise zusammenzuführen, aber es reicht aus um zu sagen, dass die Erwärmung einer Zunahme des atmosphärischen CO2-Gehaltes vorausgeht. Warum also geht der CO2-Gehalt bei Abkühlung nicht ebenfalls sofort zurück?
Ein offensichtlicher Gedanke lautet, dass dies verbunden ist mit der thermischen Trägheit der Ozeane. Dass sich Festland und Atmosphäre abgekühlt haben und die Ozeane erst mit einer Zeitverzögerung von einigen tausend Jahren dieser Abkühlung folgen. Ein einfacher Weg, dies zu untersuchen war es, den Vostok-Eisbohrkern mit den Aufzeichnungen der Ozean-Temperaturen zu vergleichen, wie es aus den d18O-Signaturen der global verteilten benthischen Foraminiferen (3), (Abbildung 7) hervorgeht. Es gibt eine ähnliche Zeitverzögerung in den Ozeanen zwischen Temperatur (d18O) und CO2 (Abbildung 7). Der Gedanke der thermischen Trägheit ist also falsch.

Abbildung 7: Es gibt eine ähnliche Zeitverzögerung zwischen CO2 aus dem Vostok-Bohrkern und der Temperaturaufzeichnung benthischer Foraminiferen im Nordatlantik (3). Sie zeigt, dass der langsame Rückgang des CO2-Gehaltes nichts mit der thermischen Trägheit der Ozeane zu tun hat.
Was also könnte da vor sich gehen? Vor einigen Monaten haben Roger und ich eine Reihe von Beiträgen zum Kohlenstoffkreislauf der Erde gepostet. Wir sind niemals wirklich bis auf den Grund hiervon vorgestoßen, aber während des Prozesses haben wir viel gelernt und viele interessante Daten entdeckt. Ich ziehe drei vorläufige Schlussfolgerungen: 1) ozeanisches Tiefenwasser enthält viel mehr Kohlenstoff als das Wasser an der Oberfläche, und weil das so ist, kann 2) die viel gepriesene ozeanische Löslichkeit von CO2 als Pumpe nicht existieren, und 3) der größte CO2-Anteil wird aus der Atmosphäre durch Photosynthese entfernt – Bäume auf dem Festland und Phytoplankton in den Ozeanen (4). Dies könnte uns helfen, die CO2-Zeitverzögerung zu verstehen. Das ozeanische Tiefenwasser enthält riesige Mengen Kohlenstoff, erzeugt durch in der Tiefe verrottendes Plankton, und wenn sich die Ozeane erwärmen oder sie umgewälzt werden, kann dieser Kohlenstoff rasch in die Atmosphäre ausgasen. Aber der umgekehrte Weg ist nicht so einfach, da er von der Rate der Photosynthese abhängt. Kurz gesagt, es scheint, dass die Ozeane CO2 viel leichter ausatmen als wieder einatmen können.
Auf dem Festland wird das Wiederanwachsen von nordhemisphärischen Eisschilden die Wälder in hohen Breiten zerstören und zu einer globalen Migration der Klimagürtel in Richtung Äquator führen. Absterbende Wälder reduzieren die Größe der terrestrischen CO2-Pumpe, während sich gleichzeitig eine neue CO2-Quelle auftut: verrottendes Pflanzengut. Dies wird dazu tendieren, die Fähigkeit der ozeanischen Biosphäre zu reduzieren, während der Abkühlungsphase CO2 herauszufiltern.

Schlussfolgerungen

● Vier glaziale Zyklen lang zeigen CO2, CH4 und Temperatur eine zyklische Ko-Variation. Dies wurde von der klimawissenschaftlichen Gemeinschaft als Beweis für die Verstärkung orbitaler Antriebe via Treibhausgas-Rückkopplungen angeführt.
● Ich bin nicht der Erste, der beobachtet, dass der CO2-Verlauf im Vostok-Eisbohrkern (2) der Temperatur hinterherläuft, und tatsächlich kommen Petit et al. (1) zu der Beobachtung, dass bei Beginn einer Eiszeit die Änderung des CO2-Anteils um viele tausend Jahre hinterherläuft. Aber sie diskutieren dies nicht, ebensowenig wie die ziemlich ausgeprägten Implikationen dieses Tatbestandes.
● Temperatur und CH4 sind extrem eng korreliert ohne jede Zeitverzögerung. Während also CO2 und CH4 in allgemeiner Weise mit der Temperatur korreliert sind, zeigen sie in ihrer Reaktion auf globale geochemische Zyklen ein unterschiedliches Verhalten. Auch dies merken Petit et al (1) an, ohne den Versuch einer Erklärung zu liefern.
● Zu Beginn der letzten Eiszeit betrug die Zeitverzögerung 8000 Jahre, und die Welt fiel in die Tiefen einer Eiszeit, wobei die CO2-Varianz nachgewiesenermaßen nur wenig zum großen Temperaturrückgang beitragen.
● Die einzig mögliche Schlussfolgerung aus dem Vostok-Bohrkern lautet, dass Variationen von CO2 und CH4 beide durch globale Temperaturänderungen ausgelöst werden sowie durch Zyklen von Gefrieren und Auftauen in hohen Breiten. Diese natürlichen geochemischen Zyklen machen es unvermeidlich, dass CH4 und CO2 mit der Temperatur korrelieren werden. Es ist daher grundfalsch, diese Beziehungen als Beweis für einen Klimaantrieb durch CO2 anzuführen, vor allem beim Beginn von Eiszeiten – es gibt hier keinerlei Korrelation.
[1] J. R. Petit*, J. Jouzel†, D. Raynaud*, N. I. Barkov‡, J.-M. Barnola*, I. Basile*, M. Bender§, J. Chappellaz*, M. Davisk, G. Delaygue†, M. Delmotte*, V. M. Kotlyakov¶, M. Legrand*, V. Y. Lipenkov‡, C. Lorius*, L. Pe ́ pin*, C. Ritz*, E. Saltzmank & M. Stievenard† (1999) Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. NATURE | VOL 399 | 3 JUNE 1999 |
[2] Jo Nova: The 800 year lag – graphed
[3] Lisiecki & Raymo (2005) A Pliocene-Pleistocene stack of 57 globally distributed benthic D18O records. PALEOCEANOGRAPHY, VOL. 20, PA1003, doi:10.1029/2004PA001071
[4] Energy Matters: The Carbon Cycle: a geologist’s view
Link: http://wattsupwiththat.com/2014/12/27/vostok-and-the-8000-year-time-lag/
Übersetzt von Chris Frey EIKE




Ein Vergleich des Verlaufs der Temperaturvorhersagen der IPCC Berichte 1 bis 5

Das IPCC hat inzwischen 5 grundlegende Berichte veröffentlicht, zum ersten Mal den FAR im Jahre 1990. Dies bietet Gelegenheit, einmal zu schauen, was vorhergesagt worden und was tatsächlich geschehen war. Die Untersuchung vergangener Berichte in dieser Hinsicht ist ziemlich erhellend, da sie enthüllen, was das IPCC während der letzten 24 Jahre gelernt hat.
Ich komme zu dem Ergebnis, dass nichts gelernt worden ist außer zu verschleiern, in die Irre zu führen und zu betrügen.

[Bildinschrift: Abbildung 8: Simulation der Zunahme der mittleren globalen Temperatur von 1850 bis 1990 infolge zunehmender Treibhausgase sowie Vorhersagen des Anstiegs von 1990 bis 2100 bei ‚Business as Usual‘-Emissionen]
Abbildung 1: Temperaturvorhersagen aus dem FAR (1990). Ist dies die beste Vorhersage, die das IPCC jemals ausgegeben hat? In der Bildunterschrift heißt es klar und deutlich, dass jedem Modell das gleiche Emissions-Szenario zugrunde liegt. Folglich beruhen die Unterschiede zwischen ‚Low-, Best- und High‘-Schätzungen auf unterschiedlichen physikalischen Hypothesen wie der Klimasensitivität von CO2. Durch das Konstant-Halten der Schlüsselvariablen (CO2-Emissions-Trajektorie) wird es dem Leser ermöglicht zu erkennen, wie unterschiedlich wissenschaftliche Beurteilungen zu Buche schlagen. Das ist der richtige Weg, dies zu tun. Alle Modelle haben den Startzeitpunkt 1850 und zeigen bereits bis zum Jahr 2000 eine signifikante Divergenz. Wie verhält sich dies im Vergleich zu dem, was eingetreten war, und zur nachfolgenden Arbeit des IPCC?
Mir ist klar, dass viele andere genau dies schon zuvor getan haben, und zwar viel differenzierter als ich das hier tun werde. Das beste Beispiel hierfür, das mir bisher untergekommen ist, stammt von Roy Spencer (1), der die folgende ausgezeichnete Graphik erzeugt hat, die jedoch auch einige Kritik auf sich gezogen hat.

Abbildung 2: Vergleich der multiplen IPCC-Modelle mit der Realität, zusammengestellt von Roy Spencer. Die Tatsache, dass sich die Realität entlang der unteren Grenze der Modelle bewegt, wurde von IPCC-Skeptikern schon oft belegt. Die einzigen Wissenschaftler, die aus dieser Realität geflohen zu sein scheinen, sind die mit dem IPCC Verbundenen.
Mein Verfahren ist viel einfacher und gröber. Ich habe einfach IPCC-Graphiken via copy and paste in große Karten kopiert, wo ich die IPCC-Vorhersagen vergleiche mit Temperatur-Rekonstruktionen von HadCRUT4. Wie wir sehen werden, hat das IPCC ein außerordentlich laxes Verfahren hinsichtlich der Temperaturbestimmungen, und in jedem Beispiel muss eine unterschiedliche Adjustierung von HadCRUT4 vorgenommen werden, um es mit dem IPCC-Rahmen vergleichbar zu machen.

Abbildung 3: Vergleich der Temperaturvorhersagen aus dem FAR (1990) mit HadCRUT4. Diese Daten wurden heruntergeladen von der Site von WoodForTrees (2) und dann das jährliche Mittel berechnet.
Abbildung 3 zeigt, wie die Temperaturvorhersagen aus dem FAR (1990) im Vergleich zur Realität aussehen. Es ist ziemlich eindeutig, dass das beste Modell das untere Modell ist. Ich habe Schwierigkeiten, die Parameter zu finden, die für die Definitionen von Low, Best und High gemacht worden waren, aber der Bericht stellt eine Bandbreite von Klimasensitivitäten zwischen 1,5 und 4,5°C fest. Eindeutig liegt das Low-Modell der Realität von HadCRUT4 am Nächsten. Das High-Modell ist bereits im Jahre 2013 um 1,2°C zu warm.

Abbildung 4:Im Dritten Zustandsbericht TAR (2001) wurde der Hockeyschläger eingeführt. Die gemessene Temperaturaufzeichnung wird aufgeteilt in eine Proxy-Aufzeichnung, die Modell-Aufzeichnung in einen gemessenen Anteil, und es wird keine Gelegenheit angeboten, den Wahrheitsgehalt der Modelle zu untersuchen. Aber seitdem sind 13 Jahre vergangen, und wir können sehen, wie die Realität im Vergleich zu den Modellen nach diesem sehr kurzen Zeitraum aussieht.
Ich konnte keine Zusammenfassung des Zweiten Zustandsberichtes (SAR) aus dem Jahr 1994 finden und bin daher gleich zum Dritten Zustandsbericht TAR (2001) gesprungen. Ich glaube, dass dies das Jahr war, in dem der Hockeyschläger das Licht der Welt erblickte. In der imaginären Welt des IPCC waren die Temperaturen auf der Nordhemisphäre von 1000 bis 1900 konstant verlaufen ohne die geringste Spur der Mittelalterlichen Warmzeit oder der Kleinen Eiszeit, wo die wirklichen Menschen entweder aufgeblüht oder millionenfach umgekommen sind. Der aktuelle Temperaturverlauf wird aufgeteilt in die Proxy-Aufzeichnung und die Modellwelt derart, dass sie das Bild einer zukünftigen Temperatur-Katastrophe erzeugen soll. Wie sieht das im Vergleich zur Realität aus?

Abbildung 5: von 1850 bis 2001 zeigt das IPCC-Hintergrundbild die Beobachtungen (keine Modellergebnisse), die mit den HadCRUT4-Messungen übereinstimmen. Sehr gut gemacht, IPCC! Was seit dem Jahr 2001 geschehen ist, zeigt detailliert Abbildung 6. Um irgendeinen Aussagewert oder irgendwie von Bedeutung zu sein, hätten alle Modelle zum Zeitpunkt 1850 beginnen sollen. Dann würde man nämlich erkennen, dass die Mehrheit der Modelle seit 2001 viel zu warm ausgefallen war.
Abbildung 5 zeigt den Vergleich der HadCRUT4-Daten mit der Modell-Welt. Die Übereinstimmung von 1850 bis 2001 ist exzellent. Grund hierfür ist, dass man einfach die Messungen in diesem Zeitraum geplottet hat. Nichtsdestotrotz musste ich 0,6°C von HadCRUT4 abziehen, um sie zu den Beobachtungen passend zu machen, während ich ein Jahr zuvor noch 0,5°C addieren musste. Der Maßstab der X-Achse über 250 Jahre macht es schwierig zu erkennen, wie die Modelle seit 2001 im Vergleich zu den 13 Jahren Beobachtungen seitdem aussehen. In Abbildung 6 ist dies als Lupe nachgeholt.

Abbildung 6: Die einzelne vertikale Gitternetzlinie ist das Jahr 2000. Die blaue Linie zeigt HadCRUT4 (Realität). Sie bewegt sich waagerecht, während alle Modelle einen Aufwärtstrend zeigen.
Der detaillierte Ausschnitt illustriert die Natur des Problems bei der Evaluierung der IPCC-Modelle. Während die Temperaturen der realen Welt seit etwa 1997 flach verlaufen sind und alle Modelle klar einen Aufwärtstrend zeigen, ist die Zeit wirklich nicht lang genug, um die Modelle angemessen zu evaluieren. Um wissenschaftlich valid zu sein hätte man die Modelle ab dem Jahr 1850 laufen lassen sollen (Abbildung 1), was man aber nicht getan hat. Hätte man das getan, würde die Realität bis zum Jahr 2001 breit divergent (wie 1990) sein, und es wäre einfach gewesen, den Gewinner zu finden. Aber bequemerweise hat man die Modelle um das Jahr 2000 initiiert. Wissenschaftlich ist das eine schlechte Praxis.

Abbildung 7: Zukunftsszenarien der Temperatur des IPCC aus dem AR 4 (2007). Es scheint, dass das IPCC die Notwendigkeit erkannt hat, die Modelle in der Vergangenheit zu initiieren, und in diesem Falle liegt der Startzeitpunkt weiterhin im Jahr 2000. Damit werden die gleichen 14 Jahre angeboten, in denen die Modellergebnisse mit dem verglichen werden können, was tatsächlich geschehen ist.
Für den Vierten Zustandsbericht AR 4 (5) kommen wir zum Jahr 2007 und der Summary, gezeigt in Abbildung 7. In diesem Stadium bin ich mir nicht sicher, was die Szenarien B1 bis A1F1 bedeuten sollen. Die Bildunterschrift zu dieser Graphik in den Berichten lautet:
Abbildung SPM 5: Durchgezogene Linien sind die multi-modellierten Mittel der Erwärmung (relativ zum Zeitraum 1980 bis 1999) für die Szenarien A2, A1B und B1, gezeigt als Fortsetzungen der Simulationen des 20. Jahrhunderts. Die Schattierung kennzeichnet die ±1-Standardabweichung der jährlichen Mittelwerte eines jeden individuellen Modells. Die orange Linie gilt, wenn die Konzentrationen konstant bei den Werten aus dem Jahr 2000 gehalten werden. Die grauen Balken rechts zeigen den Best Estimate (durchgezogene Linie in jedem Balken) und die wahrscheinliche Bandbreite der sechs SRES-markierten Szenarien. Die Bestimmung des Best Estimate und der wahrscheinlichen Bandbreiten in den grauen Balken enthalten auch die AOGCMs im linken Teil der Abbildung, ebenso wie die Ergebnisse einer Hierarchie unabhängiger Modelle und Einschränkungen aufgrund von Beobachtungen.
In dieser Bildunterschrift steckt implizit die Vermutung, dass die schwarze Linie vor dem Jahr 2000 eine von Modellen nach dem Jahr 2000 erzeugte Simulation ist (Fettdruck von mir). Die orange Linie kennzeichnet einen konstanten CO2-Gehalt, und die Tatsache, dass es sich dabei um eine  nahezu flach verlaufende Linie handelt zeigt, dass das IPCC zu jener Zeit glaubte, dass Veränderungen des CO2-Gehaltes der einzige Prozess war, der zu Temperaturänderungen auf der Erde führen könnte. Ich weiß nicht, ob die Szenarien B1 bis A1F1 alle die gleiche oder unterschiedliche Trajektorien zunehmender CO2-Konzentration verwenden. Was ich aber sicher weiß ist, dass es für Modelle physikalisch unmöglich ist, einen breiten Bereich physikalischer Input-Variablen zu verarbeiten, die für das Jahr 1900 initiiert, eng ausgerichtet wurden und dann im Jahr 2000 konvergieren, wie hier gezeigt. Es ist eine physikalische Unmöglichkeit, wie die IPCC-Modelle aus dem Jahr 1990 gezeigt haben (Abbildung 1).
Wie also sehen die Simulationen aus dem Jahr 2007 im Vergleich zur Realität aus?

Abbildung 8*: Vergleich der AR 4-Modelle mit der Realität. Seit dem Jahr 2000 verläuft die Realität nahe der unteren Grenze der Modelle, wie von Roy Spencer und vielen anderen hervorgehoben worden ist. Falls überhaupt, passt die Realität zum Modell mit dem anthropogenen Antrieb Null, gezeigt in orange.
[*Siehe Anmerkung am Ende dieser Übersetzung!]
Beim vorigen Mal musste ich 0,6°C abziehen, um die Realität mit den IPCC-Modellen passend zu machen. Jetzt muss ich 0,6°C addieren, um auf das HadCRUT4-Werte zu kommen. Und der Luxus, die Historie ab dem Jahr 1850 abzubilden, wurde jetzt verkürzt und läuft ab dem Jahr 1900. Die Simulationen vor dem Jahr 2000 passen ziemlich gut zu den gemessenen Temperaturen seit 1940, obwohl wir schon wissen, dass es für die Simulationen vor 2000 unmöglich ist, durch eine große Anzahl unterschiedlicher Computer-Modelle erzeugt worden zu sein, die programmiert worden sind, um unterschiedliche Dinge zu tun – wie kann das sein? Nach dem Jahr 2000 scheint die Wirklichkeit am besten zur orangefarbenen Version zu passen ohne CO2-Anstieg/Modell ohne anthropogenen Antrieb.
Von 1900 bis 1950 reproduzieren die vermeintlichen Simulationen die Realität überhaupt nicht gut (Abbildung 9). Die tatsächliche Temperaturaufzeichnung  zeigt einen steileren Gradienten als die Modellaufzeichnung. Und die Realität weist eine viel größere Variabilität infolge natürlicher Prozesse auf, die das IPCC in großem Umfang ignoriert.

Abbildung 9: Von 1900 bis 1950 bilden die vermeintlichen AR 4-Simulationen die Realität nur sehr unzureichend ab. HadCRUT4 in blau.

Abbildung 10: Die Sicht des IPCC aus dem AR 5 (2014). Die unbequeme Diskrepanz von 1900 bis 1950 aus dem AR 4 wird umgangen, indem man die Graphik einfach erst ab dem Jahr 1950 beginnen lässt. Die flache blaue Linie ist im Wesentlichen äquivalent zur flachen orangefarbenen Linie im AR 4.
Der Fünfte Zustandsbericht AR 5 wurde in diesem Jahr veröffentlicht, und die gegenwärtige Sicht des IPCC auf die zukünftigen Temperaturen zeigt Abbildung 10 (6). Die unbequeme Diskrepanz von 1900 bis 1950 aus dem AR 4 wird umgangen, indem man die Graphik einfach erst ab dem Jahr 1950 beginnen lässt. Ein sehr einfaches Simulationsbild wird präsentiert. Zukünftige Temperatur-Trajektorien werden gezeigt für eine Bandbreite von repräsentativen Konzentrations-Verläufen [Representative Concentration Pathways (RCP)]. Dies ist das total falsche Verfahren, da das IPCC nicht mehr das Klima modelliert, sondern unterschiedliche menschliche, gesellschaftliche und politische Entwicklungen auswählt, die zu unterschiedlichen CO2-Trajektorien führen. Bei SkepticalScience werden diese Beschreibungen gezeigt (7):
RCP2.6 wurde entwickelt vom IMAGE-Modellierungs-Team der PBL Netherlands Environmental Assessment Agency. Der Emissions-Verlauf ist in der Literatur für Szenarien repräsentativ, die zu sehr geringen Konzentrationen von Treibhausgasen führen. Es ist ein „Spitzenwert-und-Abnahme“-Szenario [a “peak-and-decline”  scenario]; das Niveau des Strahlungsantriebs erreicht zuerst einen Wert um 3,1 W/m² zur Mitte des Jahrhunderts und sinkt auf 2,6 W/m² bis zum Jahr 2100. Um dieses Niveau des Strahlungsantriebs zu erreichen, werden die Treibhausgas-Emissionen (und indirekt die Emissionen von Luftverschmutzern) substantiell mit der Zeit reduziert (Van Vuuren et al. 2007a)
UND
RCP8.5 wurde entwickelt mit dem MESSAGE-Modell und dem IIASA Integrated Assessment Framework durch das International  Institute  for  Applied  Systems  Analysis  (IIASA) in Österreich. Dieses RCP wird charakterisiert durch zunehmende Treibhausgas-Emissionen mit der Zeit, repräsentativ für Szenarien in der Literatur, die zu höheren Treibhausgas-Konzentrationen führen (Riahi et al. 2007).
Dies ist wissenschaftliche Sprechweise à la Micky Maus. Im Wesentlichen zeigen sie, dass 32 Modelle, programmiert mit einem geringen zukünftigen Emissions-Szenario niedrigere Temperatur-Trajektorien aufzeigen als 39 Modelle mit hohen zukünftigen Emissions-Trajektorien.
Die Modelle beginnen mit dem Jahr 2005 (der bessere Weg, den Beginn auf das Jahr 2000 zu legen wie im AR 4 wurde einkassiert), und von 1950 bis 2005 wird behauptet, dass 42 Modelle eine vernünftige Version der Realität abbilden (siehe unten). Wir wissen nicht, ob (wenn überhaupt) einige der 71 Modelle nach dem Jahr 2005 in der Gruppe vor 2005 enthalten sind. Wir wissen aber, dass die Gruppe vor 2005 aktuelle CO2-Konzentrationen zur Grundlage haben, und da sie alle eng beieinander liegen, müssen wir annehmen, dass sie alle ähnliche Klimasensitivitäten aufweisen.
Was der Leser wirklich sehen möchte ist, wie variierende Klimasensitivitäten die unterschiedlichen Modelle beeinflussen unter Verwendung fixierter CO2-Trajektorien, und das hat man eindeutig nicht getan. Die Modellierungsarbeit in Abbildung 10 ist effektiv wertlos. Nichtsdestotrotz wollen wir schauen, wie das im Vergleich zur Realität aussieht:

Abbildung 11: Vergleich der Realität mit Modellszenarien aus dem AR 5.
Mit Modellbeginn im Jahre 2005 haben wir nur 8 Jahre, um die Modelle mit der Realität zu vergleichen. Dieses Mal muss ich von HadCRUT4 0,3°C abziehen, um Übereinstimmung mit den Modellen zu erreichen. Vor 2005 bilden die Modelle vermeintlich die Realität seit 1950 ab. Vor 1950 wird uns eine Ansicht verwehrt, wie die Modelle damit aussahen. Nach 2005 ist klar, dass die Realität entlang der unteren Grenze der Bandbreite der beiden Unsicherheitsbereiche verläuft, die geplottet sind. Dies ist eine Beobachtung, die auch viele andere gemacht haben (z. B. 1).

Abschließende Kommentare

• Um Übereinstimmung der IPCC-Modelle mit der HadCRUT4-Wirklichkeit zu erzielen, müssen folgende Temperatur-Korrekturen angebracht werden: 1990 +0,5; 2001 -0,6; 2007 +0,6; 2014 -0,3. Mir fällt kein guter Grund ein, das Temperatur-Datum ständig zu ändern außer um eine Barriere vor der Verifikation der Modellergebnisse zu errichten.
• Der Vergleich der Modelle mit der Realität wird ernstlich behindert durch die armselige Art und Weise, wie das IPCC die Daten präsentiert. Im Jahre 1990 wurden sie noch korrekt gezeigt, das heißt, alle Modelle begannen ab 1850 zu laufen und zeigten die gleichen CO2-Emissions-Trajektorien. Die Variationen der Modellergebnisse werden konsequent durch physikalische Parameter wie der Klimasensitivität kontrolliert, und mit den seitdem vergangenen Jahren ist es geradlinig, die Modelle auszuwählen, die die beste Übereinstimmung mit der Realität zeigen. Im Jahre 1990 war ziemlich klar, dass es das „Low-Modell“ war, das fast mit Sicherheit auf eine geringe Klimasensitivität hindeutete.
• Es gibt keinen guten wissenschaftlichen Grund für das IPCC, heute nicht mehr das korrekte, im Jahre 1990 entwickelte Verfahren zu übernehmen außer dem, die Tatsache zu verschleiern, dass die Sensitivität des Klimas in bezug auf CO2 vermutlich deutlich unter 1,5°C liegt, basierend auf der Aussage von mir und anderen, dass eine Komponente der Erwärmung im 20. Jahrhundert natürlichen Ursprungs ist.
• Im Jahre 1990 hatte das IPCC eine Bandbreite von 1,5 bis 4,5°C als Klimasensitivität angegeben. 2014 war es immer noch eine Bandbreite von 1,5 bis 4,5°C. 24 Jahre sind vergangen, Milliarden Dollar sind ausgegeben worden, und absolut nichts wurde gelernt! Tomaten wurden auf die Augen von Politikern, Regierungen und der Öffentlichkeit geworfen bis hin zu einer totalen Gehirnwäsche. Billionen Dollar wurden fehlgeleitet und in die Energie-Infrastruktur gesteckt, die ultimativ zu weit verbreitetem Elend unter Millionen führen wird.
Falls eine kommerzielle Forschungsorganisation in UK der Verdrehung von Forschungsergebnissen überführt würde, nur um Geld zu verdienen und ohne Rücksicht auf die öffentliche Sicherheit, würde rasch die Polizei an deren Tür klopfen.
References
[1] Roy Spencer: 95% of Climate Models Agree: The Observations Must be Wrong
[2] Wood For Trees
[3] IPCC: First Assessment Report – FAR
[4] IPCC: Third Assessment Report – TAR
[5] IPCC: Fourth Assessment Report – AR4
[6] IPCC: Fifth Assessment Report – AR5
[7] Skepticalscience: The Beginner’s Guide to Representative Concentration Pathways
Link: http://wattsupwiththat.com/2014/06/12/the-temperature-forecasting-track-record-of-the-ipcc/
Übersetzt von Chris Frey EIKE
HINWEIS: Im Original ist die Nummerierung der Abbildungen offenbar durcheinandergeraten, taucht doch die Bezeichnung ‚Abbildung 7‘ zweimal hintereinander auf. Ich habe bei der Übersetzung die Nummerierung aber fortlaufend vorgenommen, aus der zweiten Abbildung 7 also die Abbildung 8 gemacht, und auch die folgenden Nummern angepasst.  Im Text wird auf die Abbildungen Bezug genommen., und da bin ich nicht ganz sicher, ob die von mir korrigierte Zuordnung noch passt. Anm. d. Übers.