Sind PV-Stromanlagen in Deutschland Energievernichter?

Das Potential der PV-Stromproduktion in Deutschland
Über die  Stromproduktion in Deutschland  mittels Photovoltaik-Anlagen liefert die BMU-Statistik “Erneuerbare Energien in Deutschland — 2011“ Zahlen.  Aus Produk­tion und installierter Spitzenleistung errechnet man als Mittelwert der letzten 10 Jahre  645 Volllaststunden pro Jahr (kWh pro kWp) – knapp 8 % aller Jahresstun­den! Die erforderliche Modulfläche für eine Spitzenleistung von 1 kWp wird mit 10 m² angenommen.  Daraus ergibt sich eine Stromausbeute von 64,5 kWh/ m² und Jahr. Infolge Alterung ist ein  Wirkungsgradverlust zu erwarten, der gemäss die International Energy Agency (Report IEA-PVPS T12-01:2009) 0,7 % pro Jahr beträgt. Geht man bei diesen Anlagen von einer Lebensdauer von 25 Jahren aus, ist im Mittel der verbleibenden 20 Jahre mit einer Einbusse von 7 % (4,5 kWh/m2) zu rechnen. Die mittlere jährliche Stromproduktion ist dann 60 kWh/ m². In 20 verbleibenden Jahren ergeben sich 1200 kWh/ m2 .
Dazu kommen im Mittel die ersten fünf Jahre mit je 64,5 kWh/m2, d.h. 322 kWh/m2. Somit beträgt die Gesamtstromproduktion pro Quadratmeter Modulfläche  und während der mutmasslichen Gesamt-Lebensdauer von 25 Jahren 1522 kWh.
Energieaufwand für die Herstellung der PV-Anlagen
Die Herstellung von ultrareinem Silizium ist sehr energieintensiv. Es gibt keine zuverlässige Studie über den entsprechenden Energieaufwand. Aufgrund meiner Kontakte in China habe ich den Wert von ca. 400 kg Kohle pro Quadratmeter Modulfläche in Erfahrung gebracht; verstromt in einem modernen Kohlekraftwerk (Wirkungsgrad von 47%) ergeben sich 1256 kWh. . Eine  Studie der Hong Kong Polytechnic University  (“ Environmental payback time analysis of a roof-mounted building-integrated photovoltaic system in Hong Kong”,  Applied Energy 87(2010) 3625-3631)  ergibt  1237 kWh/ m2 .Diese beiden aus der Praxis gewonnene Werte liegen deutlich über den Zahlen, welche zurzeit in deutschen Publikationen zu finden sind.  Hingegen wird der Energieaufwand für die Herstellung der zahlreichen für die Fabrikation von ultrareinem Silizium notwendigen Chemikalien bei derartigen Untersuchungen im Allgemeinen nicht berücksichtigt; siehe dazu www.svtc.org, wo beispielsweise NH3, BF3, CCl4, Aethylenvinylacetat, Silberleitpaste), C2F6, HCl, HF, H2, HNO3, NaOH und SF6 genannt werden. Auch der Aufwand für die Gewinnung von Quarz-Gestein und für die  Wasserversorgung und -entsorgung wird nicht kalkuliert. Abschätzungen des Aufwandes für  den Bau und Betrieb der  Silizium- und PV-Modulfabriken haben ergeben, dass dieser wenige Prozente des Energieaufwands für die Produktion ausmacht.
Im Folgenden wird der konservative Wert von 1200 kWh/ m2  verwendet.
Aufwand und Verluste bei der Integration der Photovoltaik in den Netzbetrieb

 

 

kWh/m2

1

Aufwand für die Bereitstellung von Gas-oder Kohlekraftwerken für die Reservehaltung

25

2

Verluste bei der Inanspruchnahme von Pumpspeicher-Anlagen – 25% Verlust , 20% beteiligte PV-Produktion

75

 

3

Aufwand für den Bau von Pumpspeicherwerken

25

4

Aufwand für Netzanpassungen

25

 

Total

150

In den Positionen 1,3 und 4 wird ein minimaler Aufwand von nur 1 kWh pro Jahr für den Bau der Reserve, Speicherung und Netzanpassungen eingesetzt.
Somit beträgt der Gesamtenergieaufwand für die Integration der Photovoltaik in den Netzbetrieb 150 kWh.
Energieaufwand für Montage, Betrieb, Rückbau, Entsorgung und Finanzierung
In der nachfolgenden Tabelle wird den laufenden Betriebskosten eine 25jährige Betriebsdauer zugrunde gelegt. Im Jahr 2012 werden die Investitionen für eine PV-Anlage werden pro m2 Modulfläche mit 400 € für die Lieferung und mit 500 € für die Montage angegeben. Somit liegt der Tabelle eine Basisinvestition von 900 € pro m² Modulflache zugrunde.

 

 

€ /m2

1

Projektierung und Bewilligungen – 10%

90

2

Montage

500

3

Wartung – 1,5 % pro Jahr während 25 Jahren

337

4

Ersatz  der Verschleisskomponenten- Anteil Wechselrichter

150

5

Versicherung – 0,17% pro Jahr während 25 Jahren

38

6

Rückbau und Entsorgung

200

7

Anpassung an künftige Sicherheitsforderungen

30

8

Zins – durchschnittlich 2% während 25 Jahren

450

 

Total während der gesamten Lebensdauer von 25 Jahren

1795

Die so ermittelten Kosten werden nun mit Hilfe der Energieintensität für Deutschland in Primärenergie-Aufwand umgerechnet: Die Energieintensität ist  der Primärenergieverbrauch, bezogen auf das Bruttoinlandprodukt. Für Deutschland beträgt sie im Jahr 2009   0.19 kg SKE pro BIP-Euro (Daten aus Fischer Weltalmanach 2011). In Strom umgewandelt mit einem Wirkungsgrad von 40% erhält man 0,62 kWh pro Euro (Dieser Wert wird als Mittelwert eingesetzt, wohlwissend dass das Gewerbe eine höhere Energieintensität hat). Der Aufwand an Primärenergie für Montage, 25 Jahre Betrieb, Rückbau, Entsorgung und Finanzierung ist in der deutschen Volkswirtschaft somit 1113 kWh.
Schlussfolgerung
Der Ertrag während 25 Jahren ist                                               1522 kWh/m2.
Demgegenüber steht ein Gesamtenergieaufwand von        2463 kWh/m2.:
 Vom Gesamtaufwand entfallen auf die Herstellung der PV-Module 1200 , auf die Integration in den Netzbetrieb 150 und auf Montage, Betrieb, Rückbau, Entsorgung und Finanzierung 1113 kWh/m2.
Die dargelegte Berechnung  zeigt ganz klar, dass Solarstromanlagen in Deutschland wegen der geografischen Lage und der klimatischen Verhältnisse keine Energiequellen sind, sondern gewaltige Energiesenken oder Energievernichtungsanlagen. Auch wenn man eine Lebensdauer von 30 Jahren annehmen würde, wäre die Energiebilanz immer noch negativ. Diese Schlussfolgerung weicht ab, von den gewohnten Feststellungen der Solarenergiebranche – vor allem deswegen weil hier oben auch der Primärenergie-Aufwand für den Betrieb und die Finanzierung sowie für die Integration in den Netzbetrieb quantifiziert worden ist. Zudem basieren die obigen Überlegungen auf Si-Herstellungszahlen asiatischer Länder, welche zusehends als Hauptlieferanten auftreten.
Zwar ist es möglich, mit der Photovoltaik elektrischen Strom zu erzeugen, aber man muss dafür wesentlich  mehr Primärenergie einsetzen als was an elektrischer Energie dank Nutzung der Sonneneinstrahlung in Deutschland herauszuholen ist. Dabei werden  keine Kilowattstunden netto erzeugt, sondern es wird Primärenergie unnütz verschwendet.
Von nachhaltiger Nutzung der Ressourcen kann keine Rede sein.
In Anbetracht der Tatsache, dass bisher in Deutschland nicht weniger als 100 Mia. € für Photovoltaik investiert worden sind, habe  ich  persönlich Mühe eine solche absurde und nicht nachhaltige Solarstrom-Energiepolitik zu verstehen. Besser würde die angesetzte Primärenergie in modernen fossil-gefeuerten Kraftwerken zur Stromerzeugung nutzen.
Ferruccio Ferroni, Dipl. Ing. ETH,  Zürich




ZDF-Big Brother Claus Kleber: Wärmer ist kälter- Wintereinbruch ist Folge des rapiden Klimawandels!

Ausgerechnet der Mojib Latif, der im April 2000 (!) bei SPIEGEL-ONLINE noch behauptete „Winter ade: Nie wieder Schnee?“ Da fällt auch nicht weiter ins Gewicht, dass die unwissende Autorin des Beitrags Sara Bildau, das Schmelzen der Arktis als „noch nie da gewesen, seit es Menschen gibt..“ apostrophierte. Man stellt sich angesichts solcher Bericht die Frage: 

Von welcher Qualität sind denn dann die anderen Beiträge im einst renommierten „heute journal“ dem Flaggschiff des ZDF?

Ähnlich falsch und dazu noch so miserabel recherchiert? Oder sollte vielleicht wieder mal ein Pressesprecher -ohne Auftrag seines Chefs natürlich-  angerufen haben? Hätte er/sie es mal nur getan! Nein, leider ist das wirklich alles purer Claus Kleber, befeuert durch seine begeisterte, weil so unabhängige, Redaktion?

Ausschnitt aus ZDF-„Heute-Journal“ vom 27.10.2012
Nun kann sich auch ein Klimaforscher mal irren. Und sich dann korrigieren. Aber das geschieht bei den meisten Vertretern diese Zunft immer nur im Nachhinein, wenn sich die Realität mal wieder nicht um die Vorhersagen ihrer computer gestützten Kristallkugel-Prognosen schert, und dann immer so, dass die Beobachtung so verdreht wird, dass sie letztlich irgendwie zur herbeiprognostizierten Erwärmung passt.
Rainer Hoffmann hat  dazu eine umfassende Dokumentation über den Klimaforscher Mojib Latif mit (fast) allen seinen dubiosen Behauptungen zum Klimawandel ( hier) verfasst. Sehenswert!
Claus Kleber hat sich schon des öfteren Klimawandel-Propaganda geleistet:
http://solarresearch.org/sk2010/co2klima/klimavideos/790-014.html
Michael Limburg, mit Dank an R. Hoffmann für die Videos




Bemerkungen zur Energiepolitik in UK

Ein Schlüsselproblem ist die periodisch wiederkehrende Konfusion zwischen Vorhersagen (was sein wird), Plänen (was sein sollte) und politischen Szenarien (was zu sein hat). Die Gruppe vom Imperial College behauptet, dass ich die Windkapazität bis 2020 übertrieben habe und dass folglich meine Schätzungen der Kosten der gegenwärtigen Politik zu hoch seien. Damit vergleichen sie jedoch Äpfel mit Birnen. Sie berufen sich auf den Vergleich eines Satzes von Vorhersagen (die sich regelmäßig ändern) mit meinen politischen Szenarien, die benennen, was erforderlich ist, um die Ziele der UK-Regierung hinsichtlich erneuerbarer Energie zu erreichen. In UK war die Qualität der Vorhersagen hinsichtlich Energie während der letzten 30 bis 40 Jahre äußerst dürftig, so dass jede Evaluation seitens der Politik auf etwas Soliderem beruhen sollte als dem jüngsten Satz von Vorhersagen.
Vielleicht sollen die offiziellen Prognosen einen bestimmten Plan für das Jahr 2020 reflektieren. In diesem Falle muss sich der politische Analyst fragen, ob die kritischen Annahmen des Planes gut begründet sind und wie das Ziel des Plans erreicht werden kann. Ein endemisches Problem der Politik in UK ist die Tendenz zu übertriebenem Optimismus, ebenso wie bei den Planungen rund um die Welt, und zwar zu vermuten was einer will, das geschehen wird und nicht das geschieht, was Realismus und Beweise nahelegen. Ein Außenstehender muss sich fragen: Welche Schritte sind unternommen worden, um die Risiken und Konsequenzen des Über-Optimismus’ zu minimieren?
Die Gruppe vom Imperial College beruft sich zum großen Teil auf Behauptungen, die auf den Ergebnissen ihrer Windmodellierungen beruhen. Derartige Modelle können instruktiv sein, sind aber keine konkreten Beweise, vor allem, weil ihre Modelle explizit die Betrachtung der stochastischen Natur des Windes ausschließen. Mein Ansatz unterscheidet sich davon. Ich habe meine politischen Szenarien aufgrund von Daten entworfen, die mit dem Betrieb des Stromsystems der letzten 4 Jahre in Zusammenhang stehen (und um einiges länger bei Windparks). Es widerstrebt mir anzunehmen, dass Schlüsselvariablen wie Nutzungsgrad, die Verteilung der Windstärke und deren Korrelation mit dem Bedarf usw. sich substantiell von dem unterscheiden werden, was wir in der Vergangenheit gesehen haben.
Außerdem scheint die Gruppe vom Imperial College den Kernpunkt meiner Argumentation nicht erkannt zu haben, dass nämlich die Reduktionen der Kohlenstoffemissionen viel kleiner sein könnten als konventionell behauptet. Meine Beispiele sind absichtlich vereinfacht, um den Punkt hervorzuheben, dass das Gesamtergebnis von Anpassungen im gesamten Stromsystem abhängt, welches wiederum durch zukünftige Entscheidungen hinsichtlich Investitionen beeinflusst wird. Dies hat nichts mit der effizienten Nutzung der bestehenden Kapazität zu tun, sondern künftige Investitionen werden davon abhängen, wie die Kapazität genutzt wird. Es scheint, als ob sowohl die Gruppe vom Imperial College als auch DECC [?] annehmen, dass man groß in CCGTs [?] Mitte oder gegen Ende dieses Jahrzehnts investieren werde, um Kraftwerke zu ersetzen, die als Konsequenz der jüngsten Direktive der EU bzgl. industrieller Emissionen vom Netz genommen werden sollen. Die Schwierigkeit besteht darin, dass die Auslastung der neuen Kraftwerke sehr gering sein könnte, falls die Vorhersagen des Anteils der Windkraft realisiert werden. In ähnlichen Situationen anderswo reagierte man mit Investitionen in einzelne Teilkraftwerke oder mit dem Weiterbetrieb älterer Kraftwerke. Das ist kein Unsinns-Szenario, sondern eine Beschreibung dessen, was tatsächlich geschieht.
Die Geschichte der Windkraft in Europa ist eine des fortgesetzten Über-Optimismus’ hinsichtlich Funktionsweise und Kosten, befeuert durch die offensichtliche Unwilligkeit, klare politische Optionen zu definieren und dann Analysen zu erstellen, die auf konkreten Beweisen basieren. Die Modellierung ist kein Ersatz für Beweise. Im Grunde ruhen die Behauptungen vom Imperial College und DECC hinsichtlich der Kosten der gegenwärtigen Politik auf der alten Geschichte „dieses Mal wird alles ganz anders sein“. Wirklich? Wie können wir das testen?
Ich würde einen einfachen Markttest vorschlagen, der sich direkt auf den Gegen­stand der originalen ECC-Anhörung [?] bezieht. Wenn die Befürworter dieser Sichtweise von Imperial College/DECC glauben, dass meine Berechnungen der Kosten der gegenwärtigen Politik falsch sind, warum befürworten sie nicht eine wesentliche und fortwährende Reduktion des Niveaus der Subventionen? Zum Beispiel wären die behaupteten Kosten konsistent mit einer Reduktion auf 0,5 ROCs pro MWh sofort und auf Null bis 2020 für Onshore-Wind und etwas, was dem Offshore-Wind gleicht.
Das gegenwärtige und zukünftig vorgeschlagene System von Subventionen für erneuerbare Energie ist äquivalent mit einem großen Programm der Besteuerung und öffentlicher Ausgaben mit Kosten, die sich möglicherweise auf Milliarden oder sogar Abermilliarden Pfund jedes Jahr während des nächsten Jahrzehnts belaufen können. Es obliegt jenen, die diese Subventionen erhalten wollen, zu zeigen, dass die Steuerzahler einen guten Gegenwert für ihr Geld erhalten. Ich habe große Zweifel, dass die gegenwärtige oder zukünftige Politik diesem Kriterium genügt. Die Gruppe vom Imperial College glaubt ganz klar etwas anderes, aber sie haben keinerlei Beweise für ihre Ansichten präsentiert. Niemand bezweifelt, dass wir mit einem Stromsystem leben können, dass große Anteile von Windkraft enthält. Die Frage ist, ob die Öffentlichkeit gewillt ist, die vollen Kosten zu tragen, wenn diese vollständig transparent sind. Im Moment werden die Kosten weder ordentlich aufgeführt noch sind sie transparent.
Gordon Hughes, 22. Oktober 2012
Link: http://www.thegwpf.org/gordon-hughes-response-to-robert-gross-et-al/
Übersetzt von Chris Frey EIKE




Klimaänderung und die ruhige Sonne

Die Sonne geht in eine Ruhephase. Die Beweise dafür nehmen zu. Die Sonnenflecken-Aktivität ist niedrig. Die Solarstrahlung ist niedrig. Das Magnetfeld der Sonne nimmt linear ab bis zu einem Wert bei Null bis zum Jahr 2026. Der langzeitliche Trend deutet auf eine weniger aktive Sonne.
Solarphysiker nehmen an, dass es zu einer ausgedehnten Periode geringer Sonnenaktivität kommen wird, die länger als einen Zyklus dauern wird.
Diese Änderung im Verhalten der Sonne könnte tief greifende langzeitliche Implikationen auf Klimaänderungen der nächsten Jahrzehnte haben.
2012 Solar Sunspot Activity through September highlighted in Yellow
Was passiert auf der Sonne?

Sonnenflecken-Aktivität im Jahr 2012, der September hervorgehoben in gelb
Der Trend für 2012 ist gesetzt. Der NOAA zufolge betrug die Sonnenfleckenzahl im September 61,5. Nach einem starken Anstieg der Sonnenaktivität Ende des vorigen Jahres hat sich die Sonnenfleckenzahl 2012 bisher auf 59,5 eingependelt.
Dem internationalen Standard zufolge ist die Sonnenfleckenzahl eine Maßzahl der mittleren Anzahl von Sonnenflecken mit der Zeit, normalerweise ein Jahr. Monatliche Mittelwerte während des Jahres werden ebenfalls veröffentlicht – wie jüngst von der NOAA. Man betrachte die gelb hervor gehobenen Zahlen des Jahres 2012.

Trendlinie des Magnetfeldes
Sicher besteht die Möglichkeit, dass sich die Sonnenflecken-Aktivität verstärkt. Die Sonne neigt zu wilden Fluktuationen, doch ist es unwahrscheinlich, dass es dieses Mal zu einem größeren Anstieg kommt. Der Höhepunkt der Sonnenflecken-Aktivität in diesem Zyklus ist auf der Nordhemisphäre der Sonne bereits vorüber.
Selbst wenn das für 2013 vorhergesagte Maximum von 75 noch erreicht werden würde, läge auch dies im Bereich der niedrigsten jemals gemessenen Werte. Es sieht aber so aus, als ob nicht einmal dieser Wert erreicht werden würde.
Der vorige Sonnenfleckenzyklus Nr. 23 wies ein unerwartet langes Minimum auf, das fast zwei Jahre gedauert hat. Die Sonnenflecken-Aktivität im jetzigen Zyklus ist halb so groß wie im vorigen Zyklus.
Die große solare Zweiteilung
In einem Bericht über die Japanische Hinode-Mission sagt die NASA, dass sich eine Asymmetrie zwischen der nördlichen und der südlichen Hemisphäre der Sonne entwickelt hat.
Während jedes solaren Zyklus’ setzt die Sonnenflecken-Aktivität am Äquator ein und kommt dann in Richtung der Pole voran, bis in einer Breite von etwa 75° Nord und Süd das Maximum erreicht wird. Der Unterschied in diesem Zyklus besteht darin, dass das Maximum in der Nordhemisphäre bereits überschritten ist. In der Südhemisphäre steht das Maximum dagegen erst noch bevor. Das solare Maximum [insgesamt] wird dadurch geglättet.
Diese ausgleichende Asymmetrie stellt die Welt der Sonnenphysik auf den Kopf. Das gegenwärtige Modell muss geändert werden. Die Vorhersage des Weltraumwetters, eine Wissenschaft noch in den Kinderschuhen, entwickelt sich rapide.
Im August 2004 hat der NASA-Wissenschaftler David Hathaway das Maximum des derzeitigen Zyklus’ für das Jahr 2010 mit einem Wert von 145 vorhergesagt. Seitdem haben er (und andere) jedes Mal den vorhergesagten Spitzenwert nach unten korrigiert und das Erreichen desselben nach hinten verschoben. Derzeit liegt seine Vorhersage des Spitzenwertes bei 75, der Ende 2013 erreicht werden soll.
Das ist aufregend! Hinode und andere Instrumente untersuchen den gegenwärtigen Sonnenzyklus, Zyklus 24, detaillierter als jemals zuvor. Das verspricht, unser Verständnis der Solarphysik erheblich zu vertiefen und uns damit in die Lage zu versetzen, das Verhalten der Sonne in Zukunft besser vorherzusagen.
Trends der Sonnenaktivität

Gelb hervorgehoben erscheint der gegenwärtige Sonnenzyklus (24) nahe dem solaren Maximum, bis Oktober 2012.
Im Jahr 1700 erholte sich die Sonne gerade von der bisher bekannten längsten Inaktivität von Sonnenflecken. Das ist bekannt unter der Bezeichnung Maunder-Minimum. Das Dalton-Minimum folgte auf dem Fuße. Es dauerte Anfang des 19. Jahrhunderts zwei solare Zyklen lang.
Dem folgte das Modern Maximum mit dem Maximum zur Mitte des vorigen Jahrhunderts. Dieses Maximum der Sonnenaktivität ist eines der höchsten der letzten 11500 Jahre bis zurück zur letzten Eiszeit.
Seitdem hat die Sonnenaktivität immer weiter abgenommen.
Jetzt sagen uns die Sonnenphysiker, dass wir ein weiteres Minimum erwarten können, das länger als einen Zyklus dauert.
Sonnenaktivität und Klimaänderung
Das Maunder- und das Dalton-Minimum haben etwas gemeinsam. Beide gingen einher mit Kaltphasen in der irdischen Klimageschichte. Die Zeit des Maunder-Minimums wird oft bezeichnet als die „Kleine Eiszeit“.
Es ist wahrscheinlich nicht reiner Zufall, dass das Moderne Maximum und eine andere, frühere Periode hoher solarer Aktivität, die Mittelalterliche Warmphase, beide mit höheren Temperaturen in der jüngsten Klimageschichte der Erde zusammengefallen waren.
Während der Satellitenära hat man herausgefunden, dass die Strahlungsenergie der Sonne zwischen 0,1% und 0,2% während eines Zyklus’ schwankt. Während der maximalen solaren Aktivität ist sie am stärksten. Das könnte ein Antrieb für historische Klimaänderungen gewesen sein, so wie es dem IPCC zufolge das CO2 heute sein soll.
Es ist unbekannt, was für einen Abkühlungseffekt es durch eine verlängerte Periode der Inaktivität geben wird. Die Physiker können diese Frage noch nicht beantworten, aber eine lange Historie empirischer Beweise legt nahe, dass es einen solchen Effekt gibt.
Schlussfolgerungen
Es gibt wenig Zweifel, dass anthropogene CO2-Emissionen eine signifikante Rolle bei der gegenwärtigen Warmphase gespielt haben [Nanu? Da hat der Autor die Literatur wohl nicht gründlich genug studiert! A. d. Übers.]. Es ist auf der Erde etwa 1°C wärmer als im Jahr 1880.
Das IPCC hat die Solaraktivität als Grund für Klimaänderungen erwogen und dann verworfen. Das IPCC hat sämtliche möglichen Antriebe der globalen Erwärmung außer AGW verworfen.
Die Zeiten ändern sich! Der Einfluss solarer Variationen wird immer klarer.
Die bisher direkt gemessenen Änderungen der Strahlung reichen nicht aus, die beobachtete globale Erwärmung zu erklären. Aber Variationen der Strahlungsenergie waren erst seit etwa 1975 direkt messbar und erstreckten sich seitdem über einen Zeitraum mit drei der stärksten, jemals beobachteten solaren Zyklen.
Es ist vollständig unbekannt, wie viel Abkühlung es während einer verlängerten Periode solarer Inaktivität, in die wir derzeit eintreten, geben wird. Das muss noch gemessen werden. Die Geschichte lehrt uns, dass es einen merklichen Effekt geben muss.
Hier ist die 100-Trillionen-Dollar-Frage:
Wird AGW oder die solare Variation die Klimaänderung der nächsten Jahrzehnte dominieren?
azleader
Informiere die Gelehrten
http://informthepundits.wordpress.com/2012/10/11/climate-change-and-the-quiet-sun/
Übersetzt von Chris Frey EIKE




Noch eine Studie zeigt höhere Temperaturen vor 1000 und sogar 2000 Jahren

Quelle Bild rechts: http://www.zum.de/Faecher/Materialien/beck/13/bs13-73.htm (Anklicken lohnt sich!)

Jetzt zeigt eine weitere Studie von Esper et al., veröffentlicht im Journal of Global and Planetary Change, dass nicht nur die Sommer der MWP genauso warm oder wärmer waren wie in der jüngsten Warmphase, sondern auch, dass die Sommer während der Römischen Warmperiode von 2000 Jahren signifikant wärmer waren als heute.

Nordskandinavische JJA-Temperaturen [JJA = Juni, Juli, August] bis zurück zum Jahr 138 v. Chr. Die jährlich aufgelöste N-Aufzeichnung [?] (blaue Kurve) zusammen mit den 100-Jahre-Filtern der Rekonstruktion (rote Kurve) und die Abschätzungen zur Unsicherheit mit Standardabweichung und anderen Fehlern [bootstrap errors] (gestrichelte Linien). Hell- und dunkelgraue Balken kennzeichnen besonders warme und kalte 30-Jahres-Perioden während der römischen und der mittelalterlichen Warmzeit, der Kleinen Eiszeit und der modernen Warmzeit. Die Temperatur wird als Anomalie dargestellt mit Bezug auf das Mittel der Jahre 1951 bis 1980.
Variability and extremes of northern Scandinavian summer temperatures over the past two millennia
[etwa: Variabilität und Extrema der sommerlichen Temperaturen in Nordskandinavien während der letzten beiden Jahrtausende]
Jan Esper, Ulf Büntgen, Mauri Timonen, David C. Frank
Abstract
Paläoklimatische Beweise enthüllen synchrone Temperaturvariationen in nordhemisphärischen Gebieten während des vergangenen Jahrtausends. Die Bandbreite dieser Variationen (in Grad Celsius) ist jedoch weitgehend unbekannt. Wir präsentieren hier eine 2000-jährige Rekonstruktion der Sommertemperaturen in Nordskandinavien und vergleichen diese Zeitreihen mit bestehenden Proxy-Reihen, um die Bandbreite der rekonstruierten Temperaturen im regionalen Maßstab zu erhalten. Die neue Rekonstruktion basiert auf 578 latewood-Dichteprofilen [?] von lebenden und fossilen Kiefern aus Nordschweden und Finnland.
Die Aufzeichnungen liefern Beweise für substantielle Erwärmungen während der Römerzeit und des Mittelalters, mit größerer Bandbreite und längerer Dauer als die Warmzeit des 20. Jahrhunderts.
Das erste Jahrhundert war die wärmste 100-Jahres-Periode (Abweichung +0,6°C vom Mittel 1951 bis 1980), mehr als 1°C warmer als das kälteste 14. Jahrhundert (-0,51°C). Die wärmste bzw. kälteste 30-Jahres-Periode (21 bis 50 = +1,05°C bzw. 1451 bis 1480 = -1,19°C) unterscheiden sich um mehr als 2°C, und es wird geschätzt, dass die Bandbreite zwischen den fünf wärmsten und kältesten rekonstruierten Sommern im Zusammenhang der letzten 2000 Jahre über 5°C liegt. Der Vergleich der neuen Zeitreihen mit fünf bestehenden, auf Baumringanalysen basierenden Rekonstruktionen aus Nordskandinavien zeigt synchrone Klimafluktuationen, aber substantiell unterschiedliche absolute Temperaturen. Das Niveau des Unterschieds zwischen extrem warmen und kalten Jahren (bis zu 3°C) sowie zwischen den wärmsten und kältesten 30-Jahres-Perioden (bis zu 1,5°C) liegt den verschiedenen Rekonstruktionen zufolge in der Größenordnung der Gesamttemperaturvarianz jeder individuellen Rekonstruktion während der vergangenen 1500 bis 2000 Jahre. Diese Ergebnisse zeigen unser geringes Verständnis der Varianz der absoluten Temperatur in einem Gebiet, in dem mehr hoch aufgelöste Proxies als in jedem anderen Gebiet der Erde zur Verfügung stehen.
[…]
Diskussion und Schlussfolgerungen
Die hier gezeigten MXD-basierten [?] Rekonstruktionen der Sommertemperatur setzen einen neuen Standard hinsichtlich einer hoch aufgelösten Paläoklimatologie. Die Aufzeichnung erklärt etwa 60% der Varianz der regionalen Temperaturdaten und basiert auf der am höchsten präzise aufgelösten Dichteserie als jede frühere Rekonstruktion. Wichtig: der Abgleich der MXD-Beispiele vor der Kleinen Eiszeit, während des Mittelalters und während des ersten Jahrtausends ist viel besser als in jeder anderen Aufzeichnung, und wir haben gezeigt, dass diese früheren Sektionen der Aufzeichnungen aus Nordskandinavien wahrscheinlich immer noch nützliche Klimainformationen enthalten. Dieses persistente Klimasignal gestattete eine Abschätzung der Temperatur-Variabilität während der Common Era [?] und enthüllte, dass die Warmzeiten zur Zeit der Römer und im Mittelalter größer in Amplitude und Dauer waren als unter den Bedingungen im 20. Jahrhundert.
Dieser neuen Aufzeichnung zufolge variierten die Sommertemperaturen um 1,1°C während des 1. und des 14. Jahrhunderts, der kältesten bzw. wärmsten 100-Jahres-Periode der letzten beiden Jahrtausende. Die Bandbreite der Temperaturänderungen zwischen den fünf kältesten und wärmsten Sommern der letzten 2000 Jahre lag über 5°C. Diese Schätzungen sind jedoch bezogen auf die Art der Proxy-Auswertung, d. h. das Bild würde sich ändern, falls die Kalibrierungs-Methode, der Zeitraum und/oder das Ziel modifiziert werden würde (Frank et al., 2010b). Zum Beispiel steigt die Varianz zwischen den 30 kältesten und wärmsten nordskandinavischen Sommern von 3,92°C auf 5,79°C, wenn die Skalierung (d. h. die Anpassung von Mittel und Varianz) an Stelle der OLS-Regression verwendet wird. Diese Unterschiede zwischen Skalierung und Regression sind proportional zu der nicht erklärten Varianz des Kalibrierungsmodells (Esper et al. 2005), und wir schlagen vor, die Proxydaten und instrumentellen Zeitserien vor der Kalibrierung zu glätten. Dieses Verfahren vermindert die nicht erklärte Varianz in allen skandinavischen Baumringaufzeichnungen und minimiert folglich die Unterschiede zwischen verschiedenen Kalibrierungs-Methoden (Cook et al. 2004). Unsere Ergebnisse zeigten jedoch auch, dass diese methodischen Unsicherheiten durch die Varianz der unterschiedlichen Rekonstruktionen vernachlässigbar sind.
Unterschiede unter sechs nordskandinavischen Baumringaufzeichnungen sind größer als 1,5°C in den extremen 30-Jahres-Perioden und bis zu 3°C in extremen Einzeljahren. Dieses Ergebnis hatten wir nicht erwartet, da die Proxies 1) alle gut zu regionalen instrumentellen Daten passen, 2) teilweise die gleichen Messreihen zeigen (oder unterschiedliche Parameter – TRW und MXD – von den gleichen Bäumen) und 3) von einer begrenzten Region in Nordskandinavien stammen, die durch eine homogene Temperaturverteilung gekennzeichnet ist. Da wir hier alle Rekonstruktionen mit der gleichen Methode kalibriert haben, stehen Unterschiede zwischen den Aufzeichnungen wahrscheinlich im Zusammenhang mit unterschiedlicher Behandlung der Daten und chronologischer Entwicklungsmethoden, Messtechniken und/oder Strategien bei der Sammlung von Beispielen ebenso wie die verbleibende Ungewissheit, wie sie für derartige Proxy-Daten typisch sind. Zum Beispiel würde das Zusammenfügen von MXD-Daten auf jüngste TRW-Trends, wie es Briffa 1992 getan hat, diese Rekonstruktion auf der niedrigeren (kälteren) Seite des Ensembles erscheinen lassen, während die Kombination (und Anpassung) neuer digitaler MXD-Messungen mit traditioneller röntgenstrahlbasierter MXD-Daten (Grudd 2008) diese Rekonstruktion am oberen (wärmeren) Ende des Ensembles gezeigt hätte. Andere Unterschiede stehen wahrscheinlich im Zusammenhang mit der Kombination  sub-fossilen Materials von Bäumen, die unter nassen Bedingungen an den Ufern von Seen gewachsen sind, mit Material von lebenden Bäumen an trockeneren Standorten abseits von Gewässern. …
Die hier enthüllte Varianz unter den Rekonstruktionen stellt eine schwebende Herausforderung dar für die Integration der Proxy-Daten in größeren Gebieten und für die Entwicklung einer einzelnen Zeitreihe, die die Nordhemisphäre repräsentiert (z. B. Mann et al. 2008). Die Zusammensetzung solcher Aufzeichnungen stützt sich allgemein auf die Kalibrierungs-Statistiken, abgeleitet aus angepassten regionalen Proxy-Zeitreihen im Vergleich zu instrumentellen Daten (D’Arrigo et al. 2006). Die hier analysierten Aufzeichnungen würden jedoch alle konventionellen, auf Kalibrierung beruhenden Screening-Prozeduren mühelos passieren. Und doch hat unsere Analyse gezeigt, dass die Auswahl einer skandinavischen Reihe anstelle einer anderen die rekonstruierten Temperaturen um 1,5 bis 3°C variieren lassen kann, beispielsweise während des Mittelalters. Andererseits würde die Berücksichtigung aller hier gezeigten Reihen wahrscheinlich auf eine weniger variable Klimahistorie hinweisen, da die Kombination divergierender Reihen dazu tendiert, die Varianz in den mittleren Zeitreihen zu reduzieren (Frank et al. 2007). Wenn ein solches Mittel dann mit instrumentellen Daten der letzten 100 bis 150 Jahre kombiniert wird, könnten Rekonstruktionen von der Art eines Hockeyschlägers herauskommen (Frank et al. 2010a). Dies scheint eine verzwickte Lage zu sein, in der wahrscheinlich Expertenteams einschließlich der Entwickler von Proxy-Aufzeichnungen involviert werden müssen, um Zeitreihen zu erhalten, die jenseits der typischen, auf Kalibrierungs-Statistiken basierenden liegen.
Unsere Ergebnisse haben gezeigt, dass die Einführung einer verbesserten Temperatur-Rekonstruktion nicht automatisch die Klimahistorie in einer bestimmten Region klarer machen kann. In Nordskandinavien kommen wir jetzt in die Lage, dass eine Anzahl hoch aufgelöster Proxy-Aufzeichnungen – die alle die klassischen Kalibrierungs- und Verifikationstests durchlaufen – verfügbar sind innerhalb einer begrenzten Region, die durch homogene Temperaturverteilungen charakterisiert wird. Diese Aufzeichnungen differieren jedoch um mehrere Grad Celsius während der letzten beiden Millenien, was riesig erscheint im Vergleich mit dem Erwärmungssignal im 20. Jahrhunderts in Skandinavien oder anderswo. Wir schließen daraus, dass die Temperatur-Historie des letzten Jahrtausends viel weniger verstanden ist als oft behauptet, und dass die Temperaturvarianz der letzten 1400 Jahre im regionalen und vor allem im hemisphärischen Maßstab weitgehend unbekannt ist. Es braucht Expertenteams, um die bestehenden Aufzeichnungen zu bewerten und die Unsicherheiten der Jahrtausende langen Temperaturrekonstruktionen  zu reduzieren, bevor wir halbwegs sicher zukünftige Klimaszenarien konstruieren können.
Gepostet von Anthony Watts
Link: http://wattsupwiththat.com/2012/10/18/yet-another-paper-demonstrates-warmer-temperatures-1000-years-ago-and-even-2000-years-ago/
Übersetzt von Chris Frey EIKE, dem mehrere Passagen hier inhaltlich nicht verständlich waren.
Bemerkung: Eine Anfrage bei dem deutschen Mitautor Ulf Büntgen ergab, dass dieser Text im Original nur in Englisch vorliegt.