Der unaufhaltsame, gestufte Fall der „Deutschen Energiewende“ – ein ganzheitliches Desaster

Aber Strom aus Wind und Sonne schwankt zwischen praktisch Null und ihrer jeweiligen Nennleistung – das gilt genau so für den ständig als grundlastfähig bezeichneten Offshore-Strom.

Die daraus resultierende Frage, woher der Strom nachts bei Windstille kommen soll, bleibt unbeantwortet – Speicherverfahren in Deutschland sind weder praktikabel noch bezahlbar.

Aber spätestens in 2018 wird massiv Strom über Wind und Sonne erzeugt werden, der oberhalb des höchsten Strombedarfes liegen wird, in 2050 ist es bereits die Hälfte, d.h.dieser Strom muß zwingend gespeichert werden oder die Anlagen müssen still gesetzt werden (das gilt auch für den Stromtransfer von Nord nach Süd).

Eine geistige Auseinandersetzung mit diesen Fakten findet in Deutschland nicht statt, vielmehr folgt man kritiklos einem ökoideologischen Mainstream.

Das erinnert an das religiöse Mittelalter, als Hexen für den Klimawandel verantwortlich gemacht und verbrannt wurden. So rennen wir wie die Lemminge in einen mittelalterlichen Agrarstaat.

Die in den letzten Jahren vermehrt aufgekommene ökologische Ausrichtung der Parteien im Gefolge mit den Medien- oder umgekehrt- haben basierend auf den Angst-einflößenden Aussagen von sog. Wissenschaftlern zum quasi tödlichen Klimawandel durch die angebliche Wirkung des CO2 diverse „Energiewenden“ in Deutschland ausgelöst.

Ziel ist die möglichst weitgehende Vermeidung des Weltunterganges durch die Verminderung des CO2-Ausstoßes.

Dabei interessiert nicht die Aussage, dass CO2 aus thermodynamischen Gründen das Klima nicht beeinflussen kann sowie das erwartungsgemäße völlige Versagen all dieser von diversen Wissenschaftlern erstellten Klimamodelle bezüglich der Temperaturvorhersage (Bild 1) (1) oder die Aussage, dass die jährliche Zunahme des weltweiten CO2- Ausstoßes bei etwa 0,50 Mrd. t/a liegt, die Minderung des Ausstoßes in Deutschland durch die „Energiewende“ bei lediglich etwa 0,01 Mrd. t/a – so sie denn gelänge.

Bild 1 (rechts oben) zeigt die mit Satelliten gemessenen weltweiten Temperaturen UAH und RSS, die seit etwa 19 Jahren nicht mehr ansteigen trotz steigender CO2-Gehalte, und die hoffnungslosen Ergebnisse der letzten 44 Modellrechnungen mit ihren ausgewiesenen Temperaturanstiegen, die sich von den restlichen etwa 50 Modellrechnungen -die im Bild nicht dargestellt sind – in ihren peinlichen Aussagen in Nichts unterscheiden.

Das Geschäft mit der Angst fällt in Deutschland schon immer auf fruchtbaren Boden und die Ergebnisse der philosophischen Betrachtungen zu den Ursachen der „German Angst“ sind vielfältig.

So ist Deutschland am konsequentesten –basierend auf einer gezielt geschürten Strahlenangst ohne jede Versachlichung- aus der Atomkraft ausgestiegen. So gab es in den 80er Jahren nur in Deutschland eine apokalyptische Angst vor dem „Waldsterben“, das nie eintrat.

So überrascht es auch nicht, dass es in Deutschland in den letzten Jahren ohne Verifikation der Fakten an diversen „Energiewenden“ nicht gefehlt hat, zumal die Energiewirtschaft mit 42% CO2-Äquivalenten gemessen an der Landwirtschaft mit 7,5%, den Gebäuden mit 12%, dem Verkehr mit 17% und Industrie&Gewerbe/Handel/Dienstleistungen mit 20% den größten Verursacher der sog.„Treibhausgasemissionen" darstellt (Angaben 2013).(2)

Hier nun eine kurze Betrachtung der letzten „Energiewendevariationen“ und einen Ausblick auf den zur Zeit in der Diskussion befindlichen „Klimaschutzplan 2050“ mit den wesentlichen Zielen:

a) „Energiewende 2010/2011“

 

2020

2050

Anteil erneuerbarer Energien 

35%

Mind. 80%

Stromverbrauch

-20%

– 50%

CO2-Minderung 

 

80-95%

b) „Energiewende 2014“

 

2025

2035

2050

Anteil erneuerbarer Energien 

40-50%

55-60%

Mind. 80%

Stromverbrauch

keine Angaben

Stromerzeugungskapazitäten

 

Solar (GW)

Wind Land (GW)

Wind See (GW)

Sonstige“ (GW)

Summe (GW)

Stand 2013

 35

33

10

78

Zuwachs bis 2030

40

40

21,5

1,5

103

Stand 2030

75

94,5

11,7

181

Zuwachs 2030/2050

50

50

?

2,0

102

Stand 2050

125

144,5

13,5

283

(keine Angaben zu Wind See in 2030-2050)

c) „Eckpunkte für die geplante Novelle des EEG“ (Beschluß am 08.06.2016) (3)

 

Solar

Wind Land

Wind See

Sonstige“

Zuwachs bis 2019 (GW/a)   

2,5

2,8

1,1

0,15 (nur Biomasse)

Zuwachs nach 2019 (GW/a)

2,5

2,9

1,1

0,20 (nur Biomasse)

(Wind See 15 GW bis 2030)     

(keine Begrenzung mehr für Solar mit 52 GW)

d) „Klimaschutzplan 2050“

Dekarbonisierung“ (Verzicht auf die Verbrennung von Kohle, Öl, Gas):

 bis 2050

Abbau der CO2-Emissionen gegenüber 1990: 

100% bis 2050

Die nun im „Klimaschutzplan 2050“ angesprochene Forderung bzw. die von Frau Merkel auf dem G7-Gipfel in Elmau in 2015 bereits eingebrachte „Dekarbonisierung“ – eine bereits 2007 von Herrn Schellnhuber, dem Gründer und Chef des Potsdam Institut für Klimaforschungsfolgen (PIK) geforderte Maßnahme – soll nun bis 2050 in allen Bereichen vollendet werden.

Diese Forderung ist eigentlich für die Energieerzeugung obsolet, wird sie doch in den zahlreichen „Energiewenden“ immer wieder zumindest bis 95% gefordert – von diversen Parteien und Nichtregierungsorganisationen schon längst bis 100%.

Es stellt sich jedoch bei all diesen nicht enden wollenden Aktivitäten zu den„Energiewenden“ stets die Frage nach ihrer Funkionalität, insbesondere nach dem Umgang mit den durch das volatile Verhalten der Stromerzeuger Wind und Solar anfallenden Stromüberschußmengen.

1.„Energiewende 2014“ und die Gründe für das gestufte Scheitern

Es soll daher einmal am Beispiel der „Energiewende 2014“ die Nichtfunktionalität dieser Energiewenden beleuchtet werden.

Die fogenden Auswertungen fußen auf den Angaben der „Energiewende 2014“ sowie folgenden Annahmen:

·       gleichbleibende Stromerzeugung bis 2050 von 600 TWh/a (ohne Berücksichtigung Elektroautos)

·       angesetzter Anteil der erneuerbaren Energien an der Stromerzeugung: 80%

·      Basisjahr für die Wind- und Solardaten ist zunächst das Jahr 2013 mit Nutzungsgraden für Wind von 19, von Solar von 9% (4)

Bild 2

In  Bild 2 sind zunächst gemäß dem Plan der „Energiewende 2014“ der Kapazitätsanteil der „Sonstigen“ (Wasser, Biomasse etc.) über die Laufzeit der Energiewende bis 2015 aufgetragen, dann additiv die Summe Wind+Solar+„Sonstige“ sowie schließlich additiv die Stromerzeugungskapazitäten von Wind+Solar+„Sonstige“+konventionelle Stromerzeuger.

Nun haben statistische Auswertungen der Stromerzeugung von Wind, Sonne und Wind+Sonne bezogen auf die jeweilige Nennleistung der Jahre 2011-2013 gezeigt, dass zwar bei der ausschließlichen Betrachtung der Windleistung diese zwischen praktisch Null und 85% und bei der Solarleistung zwischen 0 und 80% an die Nennleistung heranreichen, bei der summarischen Betrachtung aber nur zu 60%. (Bild 3) (5)

Bild 3

Da diese Auswertungen auf gemittelten Stundenwerten basieren, ist davon auszugehen, dass bei allen drei Größen in der Spitze auch Werte von jeweils 100% kurzzeitig erreicht werden.

Als Beleg für den Rückgang der Stromerzeugung von Wind+Sonne gegen Null sei auch als Beispiel auf die Einspeiseleistung  von Wind+Solar, die installierte Wind-+Solarleistung sowie den Stromverbrauch im Mai 2016 in Bild 4 verwiesen. (6) Bei installierten Leistungen von Wind+Solar von etwa 87 000 MW schwanken die Leistungen von Wind+Solar zwischen 619 MW (0,79% bezogen auf die Nennleistung) und 44 202 MW (entsprechend 50,99%) bei einem Mittelwert von 14 423 MW (entsprechend 16,64%).

Aus Bild 4 wird weiter deutlich, dass die Schwankungen in der Stromerzeugungskapazität über Wind und Sonne kurzzeitig mit bis über 30 000 MW beträchtlich sein können bei z.Z. etwa 30 % Stromerzeugung über alternative Energien, was der Leistung von drei Kraftwerken entspricht, die dann kurzfristig abgeregelt oder hochgefahren werden müssen.

Es stellt sich schon hier die Frage nach der Lösung dieses Problems bei einem Anteil an erneuerbaren Energien von 100% in 2050, wenn keine konventionellen Kraftwerke mehr vorhanden sind (vgl.auch später).

Bild 4

Zum Funktionieren der Energiewende gehört auch, dass die über Wind+Solar in Bild 2 eingezeichnete mittlere Nutzung von Wind, Sonne und "Sonstigen" nur erreicht werden kann, wenn die über dem Mittelwert anfallende Stromkapazität gespeichert wird und in Zeiten nicht ausreichender Leistungen unterhalb der mittleren Stromerzeugungskapazität wieder eingepeist werden kann (im Sinne von Bild 5; im Bild wird die unterhalb des Mittelwertes fehlene Leistung durch Gas ausgeglichen).(7)

Nun wird es wirtschaftlich wenig Sinn machen, die letzten vernachlässigbaren Stromerzeugungsspitzen von Wind+Solar aufzufangen und zu speichern, sondern nur bis zu der in der statistischen Auswertung dargelegten 60%-Stromleistung aus Wind+Solar(Bild 3).(5)


Bild 5

So ist in Bild 2 die Stromerzeugungskapazität von 60% Wind+Solar und additiv dazu der Anteil der „Sonstigen“ eingetragen, praktisch als eine weitere zu diskutierende Größe für den nutzbringenden Kapazitätsanteil über die erneuerbaren Energien.

Außerdem enthält Bild 2 die Schwankungsbreite des Strombedarfes zwischen 32 und 76 GW basierend ebenfalls auf der statistischen Auswertung der Jahre 2011-2013 (Stundenwerte).(5) Die Netzkapazität liegt zur Zeit bei etwa 80 GW.

Unter den gegebenen Annahmen errechnet sich z.B. für das Jahr 2050 bei einem angesetzten Stromanteil über die erneuerbaren Energien von 80% eine zu installierende Erzeugungskapazität von 350 GW, für die konventionellen von nur 15 GW. (4)

Das bedeutet, dass die Stromerzeugungskapazität über Wind und Solar bei den gegebenen Nutzungsgraden in den kommenden Jahren bei wenig Strom aus Offshore-Anlagen um 7,3 GW/a angehoben werden muß (bei Vernachlässigung des geringen Anstieges der „Sonstigen“), was man bei den „Eckpunkten für die geplante Novelle des EEG“ (08.06.2016) nicht erkennen kann.

Aber die Leistungsangaben in GW machen noch keine Aussagen zu der eigentlichen Stromerzeugung.

Aus Bild 3 wird deutlich, dass die Stromerzeugung oberhalb von 60% der Nennleistung von Wind+Solar durch den schlechten Nutzungsgrad von Wind und Sonne gegen Null geht und daher eine hohe Leistungskapazität bereit gestellt werden muß. (Bild 2).

Die 60%-Linie von Wind+Solar+“Sonstige“ schneidet die obere Strombedarfslinie bereits im Jahre 2018, d.h. es fällt ab diesem Jahr durch den vermehrten Anteil an alternativen Energien Strom an, der völlig am Bedarf vorbei geht und der zum Gelingen der „Energiewende 2014“ zwingend gespeichert werden muß oder die Wind- und Solaranlagen müssen still gesetzt werden (Bild 2).

Stufe 1 des Scheiterns der „Energiewende 2014“ (bis 2018)

In der Zeit vor 2018, in der die 60%-Linie der alternativen Energien unterhalb der oberen Strombedarfslinie liegt, kann zumindest noch theoretisch der insgesamt erzeugte Strom über die alternativen Energien dem Strombedarf teilweise zugeordnet werden.

Das schließt jedoch vor 2018 nicht aus, dass z.B. an den Wochenenden, wenn die untere Strombedarfslinie niedrig liegt (vgl.Bild 4), dennoch z.B.bei starkem Wind und viel Sonne die untere Strombedarfslinie massiv überschritten wird, was zu erheblichem Überschußstromanfall führen kann (vgl.später).

Das heißt, man bewegt sich vor dem Jahre 2018 in einem sich überlagernden stochastischen Bereich von Stromerzeugung über die alternativen Energien und dem stochastischen Bereich der Stromnachfrage, so dass eine mathematische Berechnung der Stromüberschußmengen nur schwer möglich ist.

Aber in der Zeit vor 2018 ist die volatile Stromerzeugung über Wind und Sonne noch eingebettet in die Flexibilität einer noch hohen Stromerzeugung über konventionelle Kraftwerke (wobei praktisch ausschließlich Kohlekrafterke für eine hohe Flexibilität sorgen können), so dass der durch die alternativen Stromerzeuger anfallende Überschußstrom noch einigermaßen abgefedert werden kann, nicht zuletzt auch über die Stromabgabe an Nachbarländer über eine Zuzahlung („negative Strompreise“).

So war im Jahre 2013 der physikalische Stromaustausch mit unseren Nachbarländern mit 72,1 Mrd. kWh/a bereits beträchtlich. Der höchste Stromexport fand mit den Niederlanden (24,5), Österreich (14,4) und der Schweiz (11,7 Mrd. kWh/a) statt, der höchste Import mit den Ländern Frankreich (11,8) und Tschechien (9,4 Mrd. kWh/a) über Atomstrom.(8)

Dies führte durch die "negativen Strompreise" in den Niederlanden zu deutlich abfallenden Strompreisen, außerdem sind Arbeitsplätze in einigen Ländern durch das notwendige Zurückfahren ausgerechnet von Pumpspeicherwerken durch den billigen deutschen subventionierten Stromimport gefährdet (Österreich, Schweiz).

In der Stufe 1 nähert sich bis 2018 die 60%-Linie aus Wind+Sonne+“Sonstige“ immer mehr dem oberen Strombedarf, so dass insbesondere an den Wochenenden von ständig steigenden Stromüberschußmengen auszugehen ist.

So zeigt Bild 6 an einem Beispiel im Mai 2016, wie der Börsenwert des Stroms stark "negativ" wird- insbesondere an Wochenenden- , wenn das Überangebot an Überschußstrom nicht abgefedert werden kann.(8) So fällt am ersten Wochenende im Mai 2016 der Börsenwert auf minus 130 €/MWh bzw. 13 ct/kWh an der Börse EEX Leipzig ab bei Mittelwerten von nur noch 22,36 €/MWh.

Bild 6 

 

 

Schließlich war im Monat Mai, 2016, der Strom aus Wind und Sonne durch den niedrigen Börsenwert nur 202 Mio. € wert, d. h. es mußten über EEG 1 742 Mio. € an die Erzeuger des alternativen Stroms gezahlt werden, was von den Stromverbrauchern übernommen werden muß.

Damit sind die konventionellen Kraftwerke nicht mehr konkurrenzfähig.

Die Anzahl der Stunden mit „negativen Strompreisen“ hat erwartungsgemäß seit 2010 ständig zugenommen, was zu erheblichen Zusatzkosten geführt hat  (Bild 7). (10) So lagen z.B. die „negativen Strompreise“ an der Börse bereits 2012 teilweise bei minus 58,80 €/MWh bzw. minus 5,80 ct/kWh, die von den Stromverbrauchern übernommen werden müssen, da die Stromerzeugung über alternative Stromerzeuger stets Vorrang hat.

 Bild 7

Durch den zunehmendem Anteil an erneuerbaren Energien hat sich durch das zunehmende kostenfreie Angebot des bereits über das EEG bezahlten Wind- und Solarstroms der Börsenpreis für Strom in den letzten 6-7 Jahren mehr als halbiert.

Außerdem führt die Zunahme der alternativen Energien über die damit verknüpfte volatile Stromerzeugung und der Rückgang der konventionellen Kraftwerke zu einer Zunahme der Netzeingriffe (Bild 8; vergleiche auch „Stufe 3“). (11)

Bild 8

Die Folgen dieser überbordenden, am Stromverbrauch vorbei produzierten Überschussmengen führen bereits jetzt in den europäischen Nachbarländern zu fortschreitenden Schwierigkeiten mit ihren Stromnetzen.

An den Grenzen zu Polen und Tschechien werden schon Phasenschieber gebaut, die ungeplante Stromflüsse abblocken sollen.

Dänemark, Norwegen und Schweden haben sich jüngst bei der EU-Kommission über Deutschland beklagt. Das überfüllte und unzureichend ausgebaute  deutsche Stromnetz verhindere den Durchfluß ihres günstigen (Öko-)Stroms Richtung Süden.(12)

Stufe 2 des Scheiterns der „Energiewende 2014“ (2018-2050)

Ab dem Jahre 2018 wird nun Strom erzeugt, der völlig am Verbrauch vorbei geht.

Der gewaltig zunehmende Abstand der 60%-Linie für Wind+Sonne+“Sonstige“ zur oberen Strombedarfslinie nach 2018 steigt über 38 GW in 2025 und 81 GW in 2035 auf 139 GW in 2050 an (Bild 2).

Mit Hilfe von Bild 3 lassen sich nun die sich daraus ergebenden Strommengen abgreifen (4):

Der tägliche Strombedarf liegt bei 600 TWh/a oder 600 000 GWh/a bei 1644 GWh/Tag, d.h. in 2050 entspricht die Überschußmenge mit 726 GWh/Tag fast der Hälfte der täglichen Stromerzeugung.

Entweder können diese Strommengen gespeichert werden oder die Wind- und Solaranlagen müssen still gesetzt werden, was naturgemäß mit erheblichen Kosten verbunden ist.(13)

Das größte deutsche Pumpspeicherwerk Goldisthal hat eine Leistung von 8,4 GWh/Tag, was –wollte man die Speicherung über Pumpspeicher lösen – folgende Anzahl erforderlich machen würde: (4)

Eine solche Lösung scheidet jedoch aus leicht nachzuvollziehenden Gründen aus.

Geht man davon aus, dass andere Speicherverfahren für Strom wie „Power to Gas“, Batterien, etc. hoffnungslos am Wirkungsgrad und den Kosten scheitern (z.B. Wirkungsgrad der Erzeugungskette "Power to Gas" über H2- Erzeugung, Methanherstellung, Stromherstellung über Methan liegt bei rd. 25%), muß das Vorhaben „Energiewende“ so schnell wie möglich gestoppt werden bis praktikable und bezahlbare Lösungen erarbeitet wurden.

Hinzu kommt, dass durch die „Energiewende 2014“ – so sie denn gelänge – der CO2-Gehalt der Atmosphäre  nur um 0,000 008% vermindert werden könnte- bei Ausgangsgehalten von 0,039%. (13)

Schließlich muß noch auf die notwendige Erweiterung der Netzkapazität in der Stufe 2 hingewiesen werden – z.B. in 2050 auf 220 GW – mit all den damit verknüpften Kosten, die bereits jetzt die Abgaben über EEG übersteigen(Bild 2).

Stufe 3 des Scheiterns der „Energiewende 2014“ (2040-2050)

Parallel zur Stufe 2 gesellt sich spätestens ab 2040 ein weiteres Problem: die Stromversorgungssicherheit.

In Bild 8 war bereits im Bereich der noch erträglichen Stufe 1 auf die Zunahme der Eingriffe zur Stabilisierung der Stromversorgung hingewiesen worden.

Wenn der elektrische Strom nicht gespeichert werden kann, muß in einem Stromversorgungsnetz der an irgendeiner Stelle entnommene Strom unmittelbar in gleicher Menge wieder eingespeist werden, d.h. es ist muß stets ein Gleichgewicht zwischen Stromentnahme und Stromerzeugung aufrecht erhalten werden.

Die Vergangenheit hat gezeigt, dass bei Stromausfall den Netzbetreibern oft nur Sekunden zur Vermeidung eines flächendeckenden Stromausfalles verbleiben, eine Zeit, in der selbst primär regelfähige Kraftwerke ihre Leistungsabgabe nur um Bruchteile des erforderlichen Betrages heraufsetzen können.

Die einzige sofort verfügbare Leistungsreserve, auf die ein Netzbetreiber in den ersten entscheidenden Sekunden zurückgreifen kann, ist die in den rotierenden Massen der Turbinen  und Generatoren konventioneller Kraftwerke (Kohle-, Kern-, Gas- und Wasserkraftwerke) gepeicherte kinetische Energie.

Daher sollte bei einem immer höheren Aufkommen an volatilen Stromerzeugern eine kritische Grenze für konventionelle Kraftwerke von rd. 28 GW nicht unterschritten werden, um eine erforderliche Mindestreserve an Primärleistung vorzuhalten, die ab 2040 ständig unterschritten würde.(14)

Diese kritische Grenze wird jedoch bereits heute teilweise bei dem derzeitigen Anteil von Strom aus Wind und Solar teilweise unterschritten (Bild 4), was sich in einer zunehmenden Zahl an Eingriffen äußert.

Solaranlagen besitzen überhaupt keine rotierenden Massen, die rotierenden Massen der Windkraftanlagen sind gemessen an den konventionellen Stromerzeugern verschwindend gering.

Bei einem Blackout können selbst Gaskraftwerke wenig ausrichten, da es auch bei diesen mehrere Minuten dauert, bis der Generator nennenswerte Leistungen abgeben kann (etwa 5 Minuten bis zur vollen Leistung). (15)

Auch die Aussagen der Stufe 3 belegen, dass eine Erzeugung des Stroms von mind. 80% über alternative Energien nicht möglich ist, geschweige denn von 100% nach der Vorstellung diverser Parteien und Nichtregierungsorganisationen bzw. der Vorstellung einer „Dekarbonisierung“.

Eine zur „Energiewende 2014“ analoge kritische Betrachtung der am 08.06.2016 beschlossenen „Eckpunkte für die geplante Novelle  des EEG“ kann hier wegen der bisher unvollständigen Angaben nicht vorgenommen werden.

2. Geplanter „Klimaschutzplan 2050“ mit vollständiger „Dekarbonisierung“ und das Problem des Stromtransfers nach Süden

Das Bundesministerium für Umwelt plant nach jetzigem Kenntnisstand im Herbst den „Klimaschutzplan 2050“ in die Gesetzgebung einzubringen. Ziel ist u.a. nicht nur der vollständige Wechsel von fossilen zu erneuerbaren Energieträgern bis 2050 in der Stromerzeugung (Energiesektor) mit z.Z. 42% CO2-Äquivalenten – wo die „Dekarbonisierung“ praktisch schon vollzogen ist – sondern auch in den Bereichen

·       Landwirtschaft mit 7,5% CO2-Äquivalenten

·       Gebäuden mit 12% CO2-Äquivalenten

·       Verkehr mit 17% CO2-Äquivalenten

·       Industrie&Gewerbe/Handel/Dienstleistungen mit 20% CO2-Äquivalenten.                                                                                            

Hierbei ist zu bedenken, dass z. Z. der Primärenergiebedarf Deutschlands durch erneuerbare Energien gerade einmal mit weniger als 10% gedeckt ist. Alleine für die Energiewende im Energiesektor mit 42% CO2-Äquivalenten ist bei einem Anteil von 80% erneuerbarer Energien ein Flächenbedarf von etwa 25% der Gesamtfläche Deutschlands erforderlich. (4,13) Wird nun der Anteil der erneuerbaren Energien im Rahmen der Energiewende von 80 auf 100% aufgestockt und zudem in den Bereichen Landwirtschaft, Gebäude, Verkehr sowie Industrie&Gewerbe/Handel/Dienstleistungen mit insgesamt 58% CO2-Äquivalenten die "Dekarbonisierung" durchgezogen, müßte weit mehr als die Hälfte der Fläche Deutschlands mit erneuerbaren Energien zugepflastert werden. Zudem stellt sich auch hier die schlichte Frage, wo nachts bei Windstille der Strom herkommen soll – bei fehlenden Stromspeichern.

Wie bereits erwähnt stellt sich für den Energiesektor die Frage nach der „Dekarbonisierung“ aufgrund des bisher Dargelegten in 2050 wegen des ganzheitlichen Scheiterns der Energiewende ohnehin nicht mehr, außerdem können bei dem Ansatz der Stromerzeugung über alternative Energien von 80% ohnehin nur noch 15 GW von 365 GW über konventionelle Kraftwerke dargestellt werden.

Im Folgenden soll dennoch der Umrechnung der 15 GW in alternative Energien nachgegangen werden.

Eine zu installierende Leistung von 15 GW über konventionelle Kraftwerke entsprechen bei einer Nutzungszeit von 90% 13,5 GW, die über die alternative Energien aus Wind und Sonne erzeugt werden müßten.

In 2013 lag der mittlere Nutzungsgrad von Wind und Sonne bei 13,4% (19% über Wind, 9% über Sonne) bei fast gleichen Anteilen von Wind-und Solarstrom. (4)

Für 13.5 GW müßten dann     13,5/0,134 = 101 GW   über die alternativen Energien Wind und Sonne erstellt werden, was in Summe einer Gesamtinstallation von

                                         350 +101 GW = 451 GW

über die alternativen Energien entspräche.

Bei einer Installation von rd.14 GW über „Sonstige“ verbleiben dann in 2050  437 GW für Wind und Sonne.

Diese gewaltige zu installierende Leistung könnte nur vermindert werden durch die Installtion eines hohen Anteiles an Wind Offshore-Anlagen, deren Nutzungsgrade zur Zeit bei etwa 30% gesehen werden.

Würde in 2050 das Verhältnis von Wind offshore zu Wind onshore zu Solar im günstigsten Falle gleich liegen, ergäben sich folgende mittlere Nutzungsgrade

                     146x 9  +  146x 19   +  146x 30 /437    =    19,3%,

was dann einer verminderten Leistungskapazität für Wind und Sonne von 303 GW entspräche.

Welche Leistungskapazität auch immer entstünde, der Strom müßte zu großen Teilen über „Stromautobahnen“ nach Süden gebracht werden.

Das Problem des Stromtransfers nach Süden

Eigentlich sollten die „Stromautobahnen“ nach dem Auslaufen der Kernkraftwerke  in 2022 fertig gestellt sein. Aber die Fertigstellung verzögert sich über einen vermehrten Ausbau über Erdkabel, die eine Fertigstellung erst nach 2025 erlauben.

Würde theoretisch in einem Gedankenexperiment unterstellt, dass lediglich nur die angesetzten rd. 100 GW über Offshore-Wind nach Süden zu transferieren wären, so müßte dieser Nord-Süd-Link für eine solche Kapazität ausgelegt sein.

Es zeigt sich aber, dass sich Strom aus Wind offshore- obwohl stets behauptet-  nicht als Grundlast einstufen läßt (z.B. Mai 2016; Bild 9). (16)

Bild 9

Offshore-Strom folgt in seinen Schwankungen dem Onshore-Strom, d.h. Windflauten an Land decken sich mit Windflauten auf See.

In gleicher Weise kann bei Windstrom generell nicht davon ausgegangen werden, dass irgendwo in Europa stets ausreichend Wind weht, um Windflauten an anderer Stelle auszugleichen (Bild 10).(10) Im Bild sind die Windstromkapazitäten von praktisch allen Deutschland nahe liegenden Ländern neben denen von Deutschland eingetragen. Eindeutig überlappen sich Stark- und Schwachwindzeiträume in allen Ländern.

Folglich würden bei einem mittleren Nutzungsgrad von Wind offshore von 30% dann im Mittel 30 GW für den Süden angeboten werden, wobei die Schwankungsbreite zwischen praktisch Null und 100 GW läge.(Z.Z. sind 5 HGÜ-Verbindungen mit einer Übertragungskapazität von je 2 GW vorgesehen (Internet)).

Bild 10

Um eine mittlere Leistung von 30 GW anbieten zu können, müßten dann im Sinne von Bild 5 die oberhalb des mittleren Leistungsangebotes von 30 GW anfallende Stromkapazität  gespeichert werden und in Zeiten nicht ausreichender Leistungen unterhalb der mittleren Stromerzeugungskapazität wieder eingespeist werden.

Wie soll nun ein für die mannigfaltige und auf Strom mit hoher Qualität angewiesene Industrie im Süden Deutschlands ein entsprechender Strom geliefert werden- ohne Stromspeicher- von den immensen Netzkosten abgesehen?

4.Fazit

Das für eine Industrienation beschämende und stümperhafte Vorhaben „Energiewende“ wird kläglich scheitern – das Ausland lacht.

Etwa 90% der Deutschen glauben an einen durch den menschlichen CO2-Ausstoß verursachten tödlichen Klimawandel, obwohl es dafür keinen einzigen Beweis gibt.

Seit dem es die Erde gibt, gibt es Klimawandel – im Mittelalter wurden sogar teilweise zu Weihnachten Erdbeeren geerntet.

Wie konnten sich die Deutschen so verrennen?

Das „Intergovernmentel Panel on Climate Change“ (IPCC), der Klimarat der Vereinten Nationen (gegründet 1988), hatte durch gefälschte Temperaturmessungen und über wissenschaftlich fragwürdige Modelle zum Einfluß von CO2 auf die Klimaerwärmung die Welt aufhorchen lassen.

Gleichzeitig nahm El Gore u.a. diese Aussage als Vorlage für eine beispiellose Kampagne gegen das CO2 in weltweiten Vorträgen und sparte nicht mit atemberaubenden Aussagen zum Anstieg des Meeresspiegels, was ihm auch noch den Nobelpreis einbrachte und ihn schließlich auch noch zu einem reichen Mann machte.

Die deutschen, grün ausgerichteten Politikjournalisten (26,9% stehen den Grünen nahe, 15,5% der SPD, 9% der CDU, 7,4% der FDP, 4,2% den Linken; 37% politisch neutral) nahmen diese Vorlage gerne auf und setzten in Bildern z.B. den Kölner Dom unter Wasser, sprachen von unerträglichen Temperaturanstiegen, vom Abschmelzen der Pole, vom Schwund der Eisbärpopulationen,etc..Die Kirchen riefen zum Kampf gegen das Höllenfeuer auf Erden durch zunehmende CO2-Gehalte auf, ganz zu schweigen von deutschen Wissenschaftlern, die davor warnten, dass sich die Ozeane in „Sprudelwasser verwandeln“ oder den Tropen der „Ökozid“ droht, etc., etc..

Aber auch bestimmte Parteien und die weitgehend von Spenden abhängigen Nichtregierungsorganisationen folgten ohne Verifikation von Fakten diesem Trend. Sogar ein „Ethikrat“, bestehend aus Bischhöfen, Soziologen, Politikern etc.wurde für technische Fragestellungen mißbraucht (Ausstieg Kernenergie).

Der Start einer emotionalen Irrationalität hatte hinsichtlich Klimawandel und Energiewende begonnen, Fakten wurden mit einer absoluten Moralisierung zugedeckt.

Damit war in der deutschen Öffentlichkeit die Basis für eine einzigartige Ausbreitung von Angst gelegt, von der der Soziologe N.Luhmann sagte:“Angst widersteht jeder Kritik der reinen Vernunft. Wer Angst hat, ist moralisch im Recht“.

Der Philosoph N.Bolz ging noch weiter:“Wenn christliche Religionen die Menschen nicht mehr ansprechen, suchen sie Ersatzreligionen. Und die mächtigste der gegenwärtigen Ersatzreligionen ist die grüne Bewegung, das Umweltbewußtsein“.

Damit ist der Weg verschlossen zu dem, was Horaz schon vor 2000 Jahren sagte:“Sapere aude“ (wage zu verstehen, deinen Verstand zu gebrauchen).

Im religiösen Mittelalter wurde dieser Verantwortung nicht nachgekommen. Hexen wurden für klimatische Veränderungen verantwortlich gemacht und verbrannt.

Erst Immanuel Kant übersetzte dann in der Aufklärung das „Sapere aude“ mit „Habe den Mut, dich deines Verstandes zu bedienen“.

Bei der geistigen Schaffung dieser Energiewende wird die Anwendung des eigenen Verstandes wieder außer Kraft gesetzt – wir sind wieder im Mittelalter angekommem. Wir bewegen uns auf dem geistigen Niveau von Aussagen wie:“Die Sonne schickt keine Rechnung“ oder „Der Strom aus den konventionellen Kraftwerken verstopft das Netz. Die Forderung muß deshalb lauten, Kohlekraftwerke aus dem Markt zu nehmen“ (Umweltminister NRW). (17)

Nun rennen wir wie die Lemminge von einem bestens funktionierenden Industriestaat zurück in einen mittelalterlichen Agrarstaat.

Dr.-Ing. Erhard Beppler

Quellen

1. Spencer, R: www.drroyspencer.com       

2. www.klimaschutzplan2050.de

3. FAZ, 09.06.2016

4. Beppler,E.: „Energiewende 2014- ein Debakel“BoD 2015; ISBN 978-3-7386-9418-5

5. Schuster, R.: Mitteilung vom 02.05.2014 – siehe auch (4)

6. Schuster, R.: Mitteilung von Juni 2016

7. Öllerer, K.: Windenergie in der Grund-, Mitte- und Spitzenlast: www.oellerer.net; siehe auch (4)

8. Bundesverband der Energie- und Wasserwirtschaft (BDEW)

9. Schuster, R.: Mitteilung Juni 2016

10. Schuster, R.: Mitteilung Januar 2016

11.Mueller, F.F.: „Netzstörungen: Der unheilbare Erbdefekt der Energiewende“, EIKE, 27.01.2016

12. FAZ, 04.05.2016

13. Beppler, E.: Energiewende- Zweite industrielle Revolution oder Fiasko“, BoD, 2013; ISBN 978-3-7322-0034-4

14. Mueller,F.F.: EIKE,29.01.2014

15. Mueller, F.F.: EIKE, 03.05.2015

16. Schuster, R.: Mitteilung 14.06.2016

17. FAZ, 16.06.2016




Professor Peter Wadhams wettet nicht auf seinem eigenen Vorhersagen zum Meeres-Eis

Sogar Gavin Schmidt hielt das für totalen Schwachsinn. Natürlich lag er [Wadham] damit falsch. Nun, seine vier Jahre Vorhersage von 2012 wird in diesem Jahr getestet und während das Meereis im Mai schneller schmolz als üblich (zum Teil wegen der von El Niño erhöhten globalen Temperaturen), ist es noch ein langer Weg komplett zu verschwinden und innerhalb von 2 Standardabweichungen  für diese Zeit des Jahres normal:

Quelle WUWT, Grafik: n_stddev_timeseries-21-july-2016

Don Keiller schreibt:


Professor Wadhams hat seine Form mit seinen Prognosen zur Ausdehnung des arktischen Meereises überschritten. Zuletzt im vergangenen Jahr sagte er voraus, dass das Meereis verschwinden würde

https://wattsupwiththat.com/2015/09/16/peter-wadhams-was-wrong-arctic-sea-ice-still-there-no-record-low-this-year/

Er greift wieder zu seinen alten Tricks, also forderte ich ihn heraus und setze £ 1000 gegen ihn, dass seine Prognose für dieses Jahr falsch ist;

Hier seine Antwort:

–Originale Nachricht–

Von: P. Wadhams

Sent Freitag, 22. Juli 2016 11.42 Uhr

An: Don & Selina

Subject: Re: Arctic eisfrei bis September

Sehr geehrter Herr Keiller, Vielen Dank, aber ich spiele nicht. Auch habe ich viele der mir von Zeitungen zugeschriebenen endgültigen Vorhersagen nicht getroffen, die, wie die Brexit Kampagnen zeigen, wenig Interesse an der Wahrheit haben aber viel an Sensationen. Der Trend [der Eisbedeckung] ist sicherlich auf dem Weg nach unten, und es wird nicht lange dauern, dass die Fläche unter 1 Million Quadratkilometer fällt, aber auf jeden Fall nicht in diesem Jahr.

Mit freundlichen Grüßen,

Peter Wadhams

Vorrausgegangen war

21. Juli 2016, Don & Selina schrieb:

> Sehr geehrter Herr Professor Wadhams,

> Ich las diesen Artikel mit Interesse und einem gewisses Maß an Skepsis.

> http://www.independent.co.uk/environment/climate-change/arctic-could-become-ice-free-for-first-time-in-more-than-100000-years-claims-leading-scientist-a7065781.html

> Sind Sie bereit, Geld auf „eine (Eis) Fläche von weniger als einer Million zu Quadratkilometer für September dieses Jahres“ zu setzen?

> Ich bin es.

> Ich fordere Sie auf eine öffentliche Wette von £ 1000 heraus, dass das [die Ausdehnung des] arktische Meereis bei mehr als 1 Millionen Quadratkilometer bis zum Ende September an allen beliebigen Stellen beträgt.

> Dieses sollte eine sichere Sache für Sie sein, denn Sie sind Professor für Ozeanische Physik und Leiter der Eismeer Physik an der Cambridge Universität.

> Und wer bin ich? Dr. Don Keiller, MA, PhD, Cantab.

> Ich habe diese E-Mail auch an „Tallbloke‘s Talkshop“ gepostet;

> https://tallbloke.wordpress.com/2016/07/20/hottest-june-not-according-to-the-satellites-roger/#comments

> Mit freundlichen Grüßen,

> Don Keiller


Ich persönlich denke, dass Professor Wadham Probleme hat, die Realität gegenüber der Fantasie zu unterscheiden. Immerhin meint er, dass die großen Ölmagnaten unterwegs sind, um ihn zu bekommen.

Erschienen auf WUWT am 22.07.2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/07/22/professor-peter-wadhams-will-not-bet-on-his-own-sea-ice-predictions/

* * * *

Bei der Bearbeitung dieses Beitrages stieß ich auch auf eine Wiederholung alter Fehler der Warmisten:

Global Warming Expedition durch Arktisches See Eis blockiert

Tyler Durden, Jul 20, 2016

Zum Teil übernommen von Craig Boudreau via The Daily Caller,

Eine Gruppe von Abenteurern, Segler, Piloten und Klimaforscher, starteten vor kurzem eine Reise rund um den Nordpol, in dem Bemühen, den Mangel an Eis zu zeigen, wurden durch Eis an der Weiterfahrt blockiert.

Die Polar Ocean Challenge unternimmt eine zweimonatige  Reise, die sie von Bristol, Alaska, nach Norwegen, dann nach Russland durch den Nord-Ost-Passage zurück nach Alaska durch den Nord-West-Passage, nach Grönland und dann schließlich zurück nach Bristol führt. Ihr Ziel, wie auf ihrer Website dargelegt, war es zu zeigen, „dass die arktische Eisdecke jetzt in den Sommermonaten wieder soweit schrumpft, dass das Meer, dass dauerhaft blockiert war, nun passiert werden kann.“

Tyler Durden erinnerte an frühere, ebenfalls gescheiterte Versuche:

Real Climate Science bietet auch eine grafische Darstellung, der aktuellen Temperaturen in der Arktis – die nach Alarmistischen Behauptungen heißer als je zuvor sein soll – sie sind tatsächlich niedriger als normal.

Das Polar Ocean Challenge Team ist nicht die erste globale Erwärmungs Expedition die mit eisigen Schwierigkeiten konfrontiert wird. Im Jahr 2013 wurde ein Forschungsschiff  namens Akademik Shokalskiy im Eis der Antarktis gefangen. Das Problem so schwerwiegend , dass alle 52 Besatzungsmitglieder  gerettet werden mussten.

Im Jahr 2015 wurde ein kanadischer Eisbrecher, die CCGS Amundsen, gezwungen, ihr Ziel zu ändern und einer Reihe von Versorgungsschiffen zu helfen, die durch das Eis gefangen geworden waren.

Zusammengestellt und übersetzt von Andreas Demmig




Löst sich das Rätsel versinkender Inseln? Dokumentarfilm Sandraub – das Ende der Strände

Bild 1 (rechts): Dubai (ehemaliges Fischerdorf). Quelle Screenshot aus dem Film Weltjournal – Sandraub

Der Welt geht der Sand aus – dadurch sind bereits 25 Inseln verschwunden

Es hat nichts mit dem Witz zu tun, dass eine sozialistisch gewordene Sahara verschwindet, weil als Folge der Sand knapp wird. Ursache ist, dass Baubeton speziellen Sand mit rauer Oberfläche benötigt. Wüstensand hat diese Eigenschaft nicht, sehr wohl aber Küsten- und Meersand.

Auf kaltesonne wurde zu diesem Film etwas Information aufbereitet (Auszüge):

Auf 3SAT lief am 7. Juni 2016 der Dokumentarfilm Sandraub – das Ende der Strände
Am Ende des 21. Jahrhunderts werden Strände Vergangenheit sein. Denn Sand ist ein begehrter Rohstoff. Der packende Dokumentarfilm von Denis Delestrac zeigt Schauplätze des Sandabbaus rund um den Globus und deckt auf: Wie beim Erdöl sorgt auch der Raubbau am Sand für Kriege zwischen den Nationen und für Umweltkatastrophen.

Weiterlesen in der Filmbeschreibung auf 3sat.de.

Film: Sandraub – das Ende der Strände

Kernaussage: Tatsächlich schrumpfen praktisch alle Strände des Planeten in immer schnellerem Tempo! Gründe sind: Hohlformen im Meeresboden durch Sandraub, die durch die Strömung und Wellengang mit Strandsand aufgefüllt werden Bauwerke (Ferienzentren, Uferbefestigungen), die eine jahreszeitliche Verlegung der Strände unterbinden und bei starkem Wellengang zu Sandausspülungen führen Staudämme, die den natürlichen Sandeintrag durch Flüsse ins Meer unterbinden

Beispiele aus dem Bericht:

In Singapur gibt es einen geduldeten Sand-Schwarzhandel

Australien ist ein großer Sandexporteur

In Indonesien sind bereits 25 Inseln wegen Sandabbau verschwunden

Auf den Malediven sind wegen des Baubooms in Malé „Sandfischer“ unterwegs. Dutzende von Inseln wurden wegen Verschwinden der Strände bereits aufgegeben.

Wenn wir uns noch mal die Senegal-Geschichte (“Um Antwort wird gebeten: Frontal21 und der Klimwandel im Senegal“) vergegenwärtigen, stellen sich spontan folgende Fragen:

Hat es in dort den letzten Jahren vermehrt Hotelbauten in Strandnähe gegeben (Strandsand zum Bauen und Befestigung der Uferlinie)?

Wie verläuft der küstennahe Sandtransport im südlichen Senegal? In diesem Bereich trennt sich der Guineastrom vom Nordäquatorialstrom, Fließrichtung ist Süden.

Haben die Staustufen Diama und Manantiali des Sambesi vielleicht eine Auswirkung auf das Küstennahe Sandangebot südlich von Dakar?

Abschlussfrage: Werden solche selbstgemachten  „Klimafolgen“ dann vielleicht auch aus dem Internationalen Klimafonds von 100 Milliarden Dollar jährlich ausgeglichen, der von den Industrieländern bezahlt wird?

Laut dem Bericht sind dadurch bereits 25 Inseln wirklich „verschwunden“, was bedeutet, sie wurden in Beton transformiert. Über bisher noch keine wirklich verschwundene Insel durch den Kimawandel wird laufend apokalyptisch berichtet, über 25 wirklich verschwundene erscheint in unseren Medien (fast) keine Zeile.

Beim Lesen dieser Information ist man geneigt, etwas an Verschwörungstheorie zu denken. Wer sich mit den Problemen auf den unendlich vielen kleinen Koralleninseln beschäftigt, merkt aber schnell, dass aufgrund der häufigen und immer weiter zunehmenden Überbevölkerung, verbunden mit dem Wunsch nach moderner Infrastruktur massiv „modern“ gebaut wird, wodurch das Abtragen von Sand und Korallengestein überall erheblichen Umfang erreicht. Auch das Anlegen großer Häfen, Fluglandeplätze und Dammstrukturen für Verbindungsstraßen stellt gewaltige Eingriffe in die fragilen Strukturen dar. Neben der in einigen Gegenden verbreiteten Dynamitfischerei schaffen es die dortigen – bei weitem nicht mehr ausschließlich „genügsam und naturverbunden“ lebenden – Einwohner ihr Umfeld teilweise auch kaputt zu machen.

Bild 2 Male, Hauptstadtinsel der Malediven. Quelle Screenshot aus dem Film Weltjournal – Sandraub

Man beachte, dass im Bericht extra auch die Malediven erwähnt werden, denen der Klimawandel angeblich so extrem zusetzt, dass deren Präsident medienwirksam eine Unterwasser-Parlamentssitzung durchführte[1]. Am Bild der Hauptinsel der Malediven lässt sich erahnen, welcher Sandbedarf alleine auf solchen „idyllischen“ Eilanden weit im Ozean benötigt wird. Dass dieser Sand schon aus Kostengründen „um die Inseln“ geholt wird, und der Küstenlinie mit entsprechenden Folgen für den natürlichen Küsten- und Naturschutz fehlt, erscheint plausibel. Publiziert wird es von den Betroffenen inzwischen als Folge des Klimawandels, denn nur so bekommt man für eigene Fehler noch viel und problemlos Geld aus dem Klimarettungsfond.

Quellen

[1] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

http://www.eike-klima-energie.eu/news-cache/ist-der-reiche-westen-wirklich-an-den-inselfluechtlingen-schuld-weil-er-co2-emittiert-teil1-die-malediven/




Über die schwer fassbare globale mittlere Temperatur – ein Vergleich Modell ? Daten

Abbildung 1

Selten werden Modellergebnisse bzw. Vergleiche zwischen Modellen und Messungen in absoluten Zahlen angegeben. Diese werden in diesem Beitrag präsentiert nach einer Diskussion der Schätzungen der absoluten mittleren Temperatur der Erde von Daten-Lieferanten: GISS, NCDC und BEST. Danach wenden wir uns den Anomalien zu.

Die folgenden Illustrationen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung neu geschrieben. Diese Präsentation offeriert eine gänzlich unterschiedliche Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen globalen Temperaturen. Man wird es begrüßen … aber Einige werden es absolut nicht begrüßen.

Dieses Kapitel erscheint weiter unten in dem Buch, nach den einleitenden Abschnitten über 1) die Grundlagen von globaler Erwärmung und Klimawandel, 2)der Übersicht über Klimamodelle, 3)den einführenden Diskussionen über die atmosphärische und ozeanische Zirkulation und natürlichen Zustände der Variabilität und 4) den detaillierten Beschreibungen der Datensätze. Es wird eines von vielen Kapiteln sein, in denen es um den Vergleich Modelle ↔ Daten geht.

Die Diskussion über die schwer fassbare globale mittlere Temperatur beim GISS

Einige werden den Ursprung der Überschrift dieses Kapitels bereits kennen. Sie stammt von der GISS Surface Temperature Analysis Q&A webpage The Elusive Absolute Surface Air Temperature (SAT). Im Einleitungstext zu der Website heißt es:

Bei der GISTEMP-Analyse geht es nur um Temperaturanomalien, nicht um die absolute Temperatur. Temperaturanomalien werden berechnet relativ zum Referenzzeitraum 1951 bis 1980. Der Grund, Anomalien anstatt absoluter Temperaturen zu betrachten ist, dass die absolute Temperatur schon auf kurze Distanzen markant variiert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien stark korreliert sind mit Distanzen bis zu 1000 km.

Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in ihrer Studie Global trends of measured surface air temperature erzeugte GISS einen Datensatz mit Temperaturanomalien auf dem Festland anstelle von Daten der Wassertemperatur. Das heißt, GISS hat die Festlandstemperaturen einfach auf die Ozeane hinaus ausgedehnt. GISS hat diesen älteren Datensatz ersetzt durch den GISS Land-Ocean Temperature Index, welcher Wassertemperaturdaten für die meisten Gebiete der Ozeane heranzieht. Dieser Index ist ihr primäres Produkt. Sie extrapolieren immer noch mit 1200 km, um Festlands- und Ozeangebiete ohne gemessene Daten zu füllen.

Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):

Frage: Was mache ich, wenn ich Absolut-Temperaturen anstatt Anomalien brauche?

Antwort: In 99,9% aller Fälle wird man feststellen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturen. In den restlichen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien dazu addieren (unter Berücksichtigung einer geeigneten Basisperiode). Für das globale Mittel erzeugen die Modelle, denen man am meisten vertraut, einen Wert von ungefähr 14°C, aber genauso kann der Wert zwischen 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlimmer.

Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders von denen, denen „man am meisten vertraut“. Und sie sagen, dass die mittlere globale Temperatur auf der Grundlage dieser Klimamodelle während des Referenzzeitraumes von 1951 bis 1980 (ihre Klimatologie) grob etwa 14°C ±0,6°C beträgt.

Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) genannt wird. Dieser geht auf Hansen und Lebedeff (1987) zurück. Ganz unten auf der Website schreibt GISS:

Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine Absolut-Skala benutzen möchte (diese Anmerkung gilt nur für globale Jahresmittel, Januar bis Dezember und Dezember bis November).

Das ist die gleiche Adjustierung der absoluten Temperaturen, wie sie GISS für ihren Land-Ocean-Temperature-Index verlangt. Siehe am Ende der Daten-Website hier.

ANMERKUNG: Einige Leute könnten denken, dass es seltsam ist, dass man beim GISS für beide Datensätze den gleichen Adjustierungs-Faktor verwendet. Einer der GISS-Datensätze (GISS dTs) weitet Lufttemperaturen von küstennahen Gebieten und Inseln auf die Ozeane bis zu einer Entfernung von 1200 km aus, während der andere GISS-Datensatz (GISS LOTI) Wassertemperaturdaten für die meisten der globalen Ozeane enthält. Mit den LOTI-Daten ersetzt GISS Daten der Wassertemperatur mit Daten der Festlandstemperatur nur in den polaren Ozeanen, wo immer Meereis lag. Falls wir annehmen, dass die küstennahen und von Inseln stammenden Landtemperaturen ähnlich sind den Lufttemperaturen über dem Meer, dann beträgt der Bias lediglich 0,2°C, vielleicht etwas mehr. Die mittlere absolute globale Wassertemperatur ICOADS beträgt während der letzten 30 Jahre (1984 bis 2013) 19,5°C, während deren absolute globale Wassertemperatur 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Lufttemperaturmessungen auf Schiffen auch durch den „Wärmeinseleffekt“ beeinflusst werden können, und die ICOADS-Daten sind in dieser Hinsicht nicht korrigiert worden. (Ende der Anmerkung).

Die NCDC-Schätzung ist ähnlich, obwohl anders abgeleitet

NCDC gibt ebenfalls eine Schätzung der absoluten globalen Mitteltemperatur an; siehe hier. Unter der Überschrift ,Globale Höhepunkte‘ schreiben sie (Fettdruck von mir)

Das Jahr 2013 zieht mit dem Jahr 2003 gleich als das viertwärmste Jahr global seit Beginn von Aufzeichnungen im Jahre 1880. Die kombinierte jährliche globale Festlands- und Ozean-Temperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von etwa 13,9°C.

Und nicht rein zufällig stimmen jene 13,9°C vom NCDC (gewonnen aus Daten von … werden wir gleich sehen), mit dem GISS-Wert von 14,0°C weitgehend überein. Dies könnte zeigen, dass die GISS-Modelle, denen man „am meisten vertraut“, an den datenbasierten Wert angepasst wurden.

Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf der NOAA Global Surface Temperature Anomalies-Website genannt, speziell unter der Überschrift Global Longterm Mean Land and Sea Surface Temperatures, welche im Jahre 2000 erstellt wurde, so dass sie jetzt 14 Jahre alt ist [der Beitrag datiert bereits aus dem Jahr 2014; Anm. d. Übers.]. Während dieser 14 Jahre haben sich Daten drastisch verändert. Man wird auf jener Website auch bemerkt haben, dass die Mittelwerte der absoluten Temperatur für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwenden. Das ist kein Thema, sondern Haarspalterei. Es gibt nur eine Differenz von 0,03°C zwischen den mittleren Anomalien jener beiden Zeiträume.

Genau wie GISS beschreibt NOAA das Problem bei der Abschätzung einer absoluten globalen Mitteltemperatur:

Absolute Schätzungen der globalen Mitteltemperatur sind aus einer ganzen Reihe von Gründen schwierig anzustellen. Da einige Regionen der Welt kaum Temperatur-Messstationen aufweisen (z. B. die Sahara), muss über große datenarme Gebiete interpoliert werden. In Bergregionen stammen die meisten Messungen aus Tälern, wo die Menschen wohnen, so dass man die Auswirkungen der Seehöhe eines Gebietes beim Mittel dieser Region berücksichtigen muss, ebenso wie andere Faktoren, die die Temperatur beeinflussen. Als Konsequenz sind die Schätzungen unten – wenngleich auch als die besten betrachtet, die derzeit zur Verfügung stehen – immer noch Approximationen, die Hypothesen reflektieren, die inhärent bei der Interpolation und der Datenaufbereitung vorhanden sind. Zeitreihen monatlicher Temperaturaufzeichnungen sind öfter als Abweichungen von einer Referenzperiode angegeben (z. B. 1961 bis 1990 oder 1880 bis 2000), weil diese Aufzeichnungen leichter interpretiert werden können und einige Probleme umgangen werden, die mit der Schätzung absoluter Temperaturen in großen Gebieten auftreten.

Es scheint, dass der NCDC-Wert auf beobachtungsgestützten Daten beruht, obschon auf älteren Daten, während der GISS-Wert eines anderen Zeitraumes auf der Grundlage von Klimamodellen sehr ähnlich ist.

Vergleiche zwischen GISS- und NCDC-Daten in absoluter Form

NCDC Global Land + Ocean Surface Temperature-Daten sind verfügbar mittels eines Klicks auf den Link oben auf der NCDC-Website Global Surface Temperature Anomalies. Und die GISS LOTI-Daten stehen hier.

Unter Verwendung der oben beschriebenen Faktoren zeigt Abbildung 2 die jährlichen globalen Mitteltemperaturen von GISS und NCDC in absoluter Form, und zwar vom Beginn im Jahre 1880 bis zum letzten vollen Jahr vor diesem Beitrag 2013. Die GISS-Daten sind ein bisschen wärmer als die NCDC-Daten, im Mittel um etwa 0,065°C. Aber alles in allem folgen sie einander. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v.3b von NOAA), und die meisten Lufttemperaturen auf dem Festland sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen lediglich die Datenlücken unterschiedlich aus (vor allem im arktischen und dem subantarktischen Ozean), und GISS verwendet ein paar Datensätze mehr, um Regionen abzudecken, aus denen kaum GHCN-Daten vorliegen.

Abbildung 2

Es ergibt sich der beste globale Festlands-+Wassertemperatur-Datensatz mit einem unterschiedlichen Faktor.

Das sind die BEST-Daten (Berkeley Earth Surface Temperature), welche ein Erzeugnis von Berkeley Earth sind. Die ihre Temperaturdaten stützende Studie stammt von Rohde et al. 2013 mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin wird man erkennen, dass man die BEST-Lufttemperaturen auf dem Festland in absoluter Form dargestellt hat. Siehe Abbildung 1 in jener Studie (hier nicht gezeigt).

Deren Klimatologie (Referenz-Temperaturen zur Bildung von Anomalien) wurde in der Verfahrens-Studie von Rhode et al. (2013) Berkeley Earth Temperature Process präsentiert mit dem Anhang hier. Unter der Überschrift Climatology schreiben Rhode et al. in ihrer „Verfahrens“-Studie:

Die globale Festlands-Mitteltemperatur von 1900 bis 2000 beträgt 9,35°C ±1,45°C, was grob übereinstimmend ist mit der Schätzung von 8,5°C durch Peterson (29). Diese große Unsicherheit in der Normalisierung ist nicht in den schattierten Bändern enthalten, die wir über unsere Tavg-Plots gelegt haben, weil sie nur die absolute Skala beeinflusst und für Relativ-Vergleiche keine Bedeutung hat. Außerdem ist der größte Teil dieser Unsicherheit der Präsenz von nur drei GHCN-Sites im Inneren der Antarktis geschuldet, was den Algorithmus dazu bringt, die Absolut-Normalisierung für den größten Teil der Antarktis als poorly constrained anzusehen. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und anderswo zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheit um eine Größenordnung reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Berkeley Average-Analyse-Prozess ist in gewisser Weise eindeutig, erzeugt er doch eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen.

Es ist interessant, dass der Mittelungsprozess der Temperatur bei Berkeley sie mit einer Schätzung der globalen mittleren Festlands-Temperaturen in absoluter Form ausstattet, während man bei GISS und NCDC geschrieben hat, dass eben diese Schätzung sehr schwierig ist.

Der Bezug auf Peterson in der Studie von Rhode et al. stammt von Peterson et al. 2011 mit dem Titel Observed Changes in Surface Atmospheric Energy over Land. Die 8,5°C von Peterson et al. als absolute Festlands-Lufttemperaturen ist der gleiche Wert, der gelistet ist in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den NOAA Global Surface Temperature Anomalies-Websites.

Berkeley Earth hat auch Daten veröffentlicht für zwei globale Land-+Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund, dass es zwei sind. Festlands-Temperaturdaten enthalten offensichtlich keine Ozeanoberflächen-Temperaturdaten, wo sich Meereis befindet, und Wassertemperaturdaten enthalten nicht die Lufttemperaturen über polarem Meereis, wo und wann sich dieses befindet. Von den 361,9 Millionen km² der Gesamtfläche der globalen Ozeane bedeckt polares Meereis nur im Mittel etwa 18,1 Millionen km² jährlich im Zeitraum 2000 bis 2013. Während polares Meereis nur etwa 5% der globalen Ozeane und nur etwa 3,5% der Oberfläche des Globus‘ überdeckt, ist die klimawissenschaftliche Gemeinde bestrebt, dort die Lufttemperatur zu berechnen. Dies gilt besonders für die Arktis, wo der natürlich auftretende Prozess der polaren Verstärkung zu übertriebenen Erwärmungsraten führt in Zeiten, in denen sich die Nordhemisphäre erwärmt (und sich auch mit verstärkten Raten abkühlt, wenn sich die Nordhemisphäre abkühlt).

Während dies geschrieben wird, gibt es keine stützende Studie für die Land- und Wassertemperaturdaten von BEST, die verfügbar sind auf der Berkeley Earth Papers-Website, und es wird nichts dazu gezeigt auf ihrer Posters-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datenseite über ihr Kombinations-Produkt. Die BEST-Land- und Wassertemperaturdaten sind zusammengeführt mit einer modifizierten Version von HadSST3-Wassertemperaturdaten, welche man mittels eines statistischen Verfahrens namens Kriging aufgefüllt hatte.

Die jährlichen Berkeley-Anomalien der Land-+Wassertemperaturen sind hier und die monatlichen Daten hier. Ihre Begründung der Präsentation der beiden Land-+Wassertemperatur-Produkte stützt meine Ausführungen oben. Berkeley Earth schreibt:

Zwei Versionen dieses Mittels werden gezeigt. Diese unterscheiden sich dahingehend, wie sie mit von Meereis bedeckten Gebieten umgehen. In der ersten Version werden Temperaturanomalien bei der Gegenwart von Meereis extrapoliert von Anomalien der Festlandstemperatur. In der zweiten Version werden Temperaturanomalien bei der Gegenwart von Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen im offenen Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich der Lufttemperaturen darüber sind; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittels zeigt größere Änderungen in jüngster Zeit, teilweise weil Änderungen der Wassertemperatur durch den Gefrierpunkt von Meerwasser beeinflusst werden. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis ein natürlicheres Mittel darstellt zur Beschreibung von Änderungen der Temperaturen auf der Erde.

Der Gebrauch von Lufttemperaturen über Meereis kann eine realistischere Repräsentation arktischer Temperaturen während der Wintermonate anbieten, wenn das Meereis sich an den Landmassen auftürmt und wenn jene Landmassen mit Schnee bedeckt sind und Eis und Festland ähnliche Albedos aufweisen. Allerdings kann die Albedo von Meereis während der Sommermonate anders sein als die Albedo von Landmassen (Schnee schmilzt und legt die Landoberfläche um die Temperatur-Sensoren frei, und die Albedo von Landoberflächen ist eine ganz andere als die von Meereis). Der offene Ozean trennt außerdem Festland und Meereis an vielen Stellen, was das Problem weiter kompliziert. Dem ist nicht so einfach abzuhelfen.

Berkeley Earth listet auch die geschätzten absoluten Oberflächen-Temperaturen während ihres Referenzzeitraumes für beide Produkte:

Geschätzte globale Mitteltemperatur I von Januar 1951 bis Dezember 1980

mittels Lufttemperatur über Meereis: 14.774 ±0.046

mittels Wassertemperatur unter Meereis: 15.313 ±0.046

Die geschätzte absolute globale Mitteltemperatur unter Verwendung der Lufttemperatur über Meereis ist um 0,5°C kälter als die Daten unter Verwendung der Wassertemperaturdaten unter dem Meereis. Die später in diesem Beitrag präsentierten Modelle zeigen Lufttemperaturen, darum werden wir die Berkeley-Daten verwenden, die die Lufttemperatur über Meereis zeigen. Dies stimmt auch mit den Verfahren bzgl. der GISS LOTI-Daten überein.

Der von Berkeley Earth verwendete Wassertemperatur-Datensatz (HadSST3) existiert nur in Anomalie-Form. Und ohne stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earths diese Anomalien in absolute Werte konvertiert hat. Die Quelle ICOADS-Daten sowie die HadISST und ERSST.v3b-Endprodukte werden in absoluter Form gezeigt, so dass vermutlich eine davon als Referenz herangezogen worden war.

Vergleich der Daten von BEST, GISS und NCDC in absoluter Form

Die jährlichen globalen Mitteltemperaturen der drei Institutionen in absoluter Form vom Anfangsjahr 1880 bis zum letzten vollständigen Jahr 2013 zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber der Kurvenverlauf ist ähnlich, wie man es auch erwarten würde.

Abbildung 3

In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem mit einem zehnjährigen gleitenden Mittel geglättet (rote Kurve). Zumeist sind die BEST-Daten in absoluten Werten um etwa 0,8°C wärmer als die NCDC-Schätzung. Der 1940 beginnende Buckel, der um 1950 seinen Spitzenwert erreicht, sollte den Adjustierungen geschuldet sein, die UKMO an den HadSST3-Daten vorgenommen hatte, nicht aber an die Daten von NOAA ERSST.v3b, die sowohl von GISS als auch von NCDC herangezogen worden waren. Diese Diskussionen werden in einem anderen Kapitel geführt. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch mit der Handhabung der Wassertemperaturdaten zusammenhängt, aber es gibt keine Möglichkeit, dies ohne Zugang zu den von BEST modifizierten HadSST3-Daten sicher zu sagen. Der jüngste Aufwärts-Tick sollte dem Unterschied geschuldet sein, wie BEST und NCDC mit den Daten aus dem Arktischen Ozean umgehen. Berkeley Earth extrapoliert Festlands-Temperaturdaten einfach hinaus auf die Ozeane, während NCDC Wassertemperaturdaten im Arktischen Ozean außen vor lassen, sofern dort Meereis liegt, und man extrapoliert landbasierte Daten nicht auf Flächen über Eis zu jenen Zeiten.

Abbildung 4

Und jetzt zu den Modellen:

Simulationen der absoluten Lufttemperatur seit 1880 seitens des Klimamodells CMIP5

Wie in diesem Buch schon an verschiedenen Stellen erwähnt, werden die Ergebnisse der Klimamodelle, die vom IPCC für ihren 5. Zustandsbericht herangezogen worden waren, im Climate Model Intercomparison Project Phase 5 archive gespeichert, und diese Ergebnisse sind öffentlich verfügbar und aufbereitet zum Download in leicht nutzbaren Formaten via KNMI Climate Explorer. Die Ergebnisse von CMIP5 der Lufttemperatur auf dem KNMI Climate Explorer stehen auf der Monthly CMIP5 scenario runs-Website und werden als „TAS“ bezeichnet.

Die Modellergebnisse auf dem KNMI Climate Explorer sind für die historischen Antriebe verfügbar mit Übergängen zu den unterschiedlichen RCP-Zukunfts-Szenarien. Hier zeigen wir das historische und das Worst-Case-Zukunfts-Szenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Emissionen von Treibhausgasen wie projiziert unter diesem Szenario erfolgen. Die Verwendung des Worst-Case-Szenarios wird kaum Auswirkungen auf den Vergleich zwischen Modell und Daten von 1880 bis 2013 haben. Wie man sich erinnert, beginnen die Zukunftsszenarien in den meisten Modellen nach 2005, bei anderen später, und deswegen gibt es nur sehr geringe Unterschiede zwischen den Modellergebnisse für die unterschiedlichen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich die Outputs separat heruntergeladen für alle Modelle individuell sowie deren Ensemble-Mitgliedern. Es gibt insgesamt 81 Ensemble-Mitglieder von 39 Klimamodellen.

Anmerkung: Die Modellergebnisse sind verfügbar in absoluter Form in Grad Celsius, darum habe ich sie nicht auf irgendeine Weise adjustiert.

Hiermit als Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die archivierten Ergebnisse der CMIP5-Klimamodell-Simulationen zeigt der globalen Lufttemperatur von 1880 bis 2100 mit historischen und RCP8.5-Antrieben. Eine größere Version dieser Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5

Welchen Wert die globale mittlere Temperatur derzeit auch immer haben mag oder in der Vergangenheit hatte oder in Zukunft haben wird – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit umgeben [surrounded].

Einige könnten nun argumentieren, dass absolute Temperaturwerte unwichtig sind – dass wir uns viel eher mit Vergangenheit und Zukunft der Erwärmungsraten befassen sollten. Wir können dieses Argument auf zwei Wegen widerlegen: Erstens haben wir bereits in den Kapiteln CMC-1 und -2 gesehen, dass Klimamodelle bei der Simulation der Temperaturen von 1880 bis in die achtziger Jahre und dann wieder von den achtziger Jahren bis heute sehr schlecht abgeschnitten haben. Außerdem werden wir später das Scheitern der Modelle noch sehr viel detaillierter ausführen. Zweitens, absolute Temperaturwerte sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen ab von der Infrarotstrahlung, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum emittierten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.

Wie in Abbildung 5 oben gezeigt beginnt die Mehrheit der Modelle mit Absolutwerten der globalen mittleren Temperatur, die eine Bandbreite von 12,2°C bis etwa 14,0°C aufweisen. Aber unter Einschluss der Ausreißer reicht die Bandbreite von 12,0°C bis 15,0°C. Die Bandbreite der modellierten globalen Mitteltemperatur ist einfacher erkennbar, falls wir die Modellergebnisse mit 10-Jahre-Filtern glätten. Siehe Abbildung 6.

Abbildung 6

Wir könnten diese Bandbreite enger machen mittels Entfernen der Ausreißer, aber ein Problem hiervon ist, dass die Warm-Ausreißer relativ nahe der jüngeren (besseren?) Schätzung der absoluten Temperatur der Erde von Berkeley Earth liegen. Siehe Abbildung 7, in der wir zu den jährlichen, nicht geglätteten Ergebnissen zurückkehren.

Abbildung 7

Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische und keine wissenschaftliche Institution ist. Als Folge hiervon werden in dieser politischen Institution Modelle anderer Agenturen aus der ganzen Welt verwendet, selbst solche, die noch schlechtere Ergebnisse liefern als die auch schon schlechten Ergebnisse der anderen Modelle, was die gesamte Gruppe hinabzieht.

Mit diesen beiden Dingen im Hinterkopf werden wir alle Modelle in dieser Präsentation beibehalten, selbst die offensichtlichen Ausreißer.

Betrachtet man noch einmal die große Bandbreite der Modellsimulationen der globalen mittleren Temperatur in Abbildung 5 oben, scheint es eine Spannweite von mindestens 3°C zwischen dem kältesten und dem wärmsten zu geben. Schauen wir mal, ob sich das bestätigt.

In Abbildung 8 habe ich die kälteste modellierte globale mittlere Temperatur von der wärmsten in jedem Jahr subtrahiert, und zwar von 1880 bis 2100. Für den größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spannweite zwischen dem kältesten und dem wärmsten größer als 3°C.

Abbildung 8

Diese Spannbreite hilft uns, etwas zu beleuchten, was wir schon einige Male angesprochen haben: die Verwendung vom Multi-Modell Ensemble-Member Modellmittel, also das Mittel aller Läufe von allen Klimamodellen. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wie immer er beschaffen ist. Liefert uns die Mittelung der Modellsimulationen eine gute Antwort? Nein!

Aber das Mittel, das Multi-Modell-Mittel, liefert uns doch etwas von Wert. Es zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturwerten und wie diese Werte variieren, falls (großes falls) sie auf die Antriebe reagieren, die auch in den Klimamodellen stecken. Und wie wir sehen werden, reagieren die gemessenen Temperaturen nicht auf jene Antriebe, wie sie von den Modellen simuliert werden.

Vergleiche Modell ↔ Daten

Wegen der Differenzen zwischen den neuesten (BEST) und den älteren (NCDC und GISS) Schätzungen der absoluten globalen Mitteltemperatur werden sie separat präsentiert. Und weil die GISS- und die NCDC-Daten einander so ähnlich sind, verwenden wir deren Mittelwert. Und schließlich werden wir für die Vergleiche nicht alle Ensemble-Member als Spaghetti-Graphik zeigen. Wir zeigen das Maximum, das Mittel und die Minima.

Mit diesen Bedingungen vergleicht Abbildung 9 das Mittel der GISS und NCDC-Schätzungen der absoluten mittleren globalen Temperaturen mit dem Maximum, dem Mittel und dem Minimum der modellierten Temperaturen. Das Modellmittel liegt nahe den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modellmittel etwa 0,37°C kälter ist als die Daten im Zeitraum 1880 bis 2013.

Abbildung 9

In Abbildung 10 wird die BEST-Schätzung (neuer = besser?) der absoluten mittleren globalen Temperaturen von 1880 bis 2013 verglichen mit Maximum, Mittel und Minimum der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher dem Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel zeigt sich etwa 1,14°C kälter als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung 10

Differenz Modell ↔ Daten

In den nächsten beiden Graphiken subtrahieren wir die datenbasierten Schätzungen der absoluten globalen mittleren Temperatur der Erde vom Modellmittel der CMIP5-Simulationen. Man berücksichtige dies bei der Betrachtung der nächsten beiden Graphiken: Falls das Mittel der Modelle die dekadischen und multidekadischen Schwankungen der Temperatur auf der Erde angemessen simulieren würde und lediglich einfach den absoluten Wert verfehlt haben, wäre die Differenz zwischen Modellen und Daten eine flache horizontale Linie, die sich aus der Differenz ergibt.

Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Simulationen der Temperaturen auf der Erde und den GISS- und NCDC-Schätzungen, wobei die Daten von den Modellen subtrahiert werden. In der folgenden Diskussion geht es um das 10-Jahre-Mittel […keys off the 10-year average], welches ebenfalls in rot eingezeichnet ist.

Abbildung 11

Die größte Differenz zwischen Modellen und Daten zeigt sich in den achtziger Jahren des 19. Jahrhunderts. Die Differenz nimmt drastisch ab von den achtziger Jahren bis zu den Zehner-Jahren des 20. Jahrhunderts. Der Grund: Die Modelle simulieren nicht angemessen die beobachtete Abkühlung, zu der es zu jener Zeit gekommen war. Die Differenz Modell ↔ Daten wächst dann wieder von 1910 bis etwa 1940. Dies zeigt, dass sie nicht nur jene Abkühlung, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Die Differenz verläuft zyklisch bis zu den neunziger Jahren, nach welchem Zeitpunkt die Differenz wieder graduell zunimmt. Und von 1990 bis heute ist die Differenz infolge des Stillstands auf den niedrigsten Wert seit 1880 gesunken.

Abbildung 12 zeigt die Differenz zwischen der BEST-Schätzung der Temperatur der Erde und dem Modellmittel der Simulationen. Die Kurve ist ähnlich der oben gezeigten Kurve für die GISS- und NCDC-Daten. Die BEST-Daten zeigen von Ende des 19. Jahrhunderts bis zu den Zehnerjahren des 20. Jahrhunderts geringere Abkühlung, und als Folge davon zeigt sich eine kleinere Abnahme der Temperaturdifferenz zwischen Modellen und Daten. Aber es gibt immer noch eine große Zunahme der Differenz von den Zehnerjahren bis etwa 1940, als die Modelle nicht imstande waren, die damals stattfindende Erwärmung angemessen zu simulieren. Und natürlich hat der jüngste Stillstand eine erneute Abnahme der Temperaturdifferenz verursacht.

Abbildung 12

Zusammenfassung dieses Kapitels

Es gibt eine Spannbreite von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die höhere Schätzung von einer Schätzung aus jüngerer Zeit stammt, die auf einer aktuelleren Datenbasis der globalen Temperaturen beruht. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die veralteten GISS- und NCDC-Werte.

In den Klimamodellsimulationen der absoluten globalen Temperaturen gibt es eine erheblich größere Spannbreite, die im Mittel etwa 3,15°C von 1880 bis 2013 ausmacht. Um das ins Verhältnis zu stellen: Mit Beginn in den neunziger Jahren haben Politiker suggeriert, dass wir die Steigerung der globalen Temperaturen auf 2,0°C begrenzen. Eine andere Möglichkeit, jene 3,15°C-Modellspannbreite ins Verhältnis zu setzen ist es, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet, dass die gesamte globale Erwärmung von 1975 bis 2005 durch anthropogene Treibhausgase verursacht worden ist. Diese Behauptung beruhte auf Klimamodell-Ergebnissen, die die natürliche Variabilität nicht simulieren können, und darum war die Behauptung bedeutungslos. Unabhängig davon sind die globalen Temperaturen zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, jedenfalls dem Mittel der linearen Trends in den BEST-, GISS- und NCDC-Daten zufolge.

Und die Differenz zwischen der modellierten und der gemessenen absoluten globalen Mitteltemperatur war lediglich eine weitere Möglichkeit zu zeigen, wie schlecht globale Temperaturen in den jüngsten und besten Klimamodellen simuliert wurden, die das IPCC für seinen 5. Zustandsbericht herangezogen hatte.

Aber

Manchmal erfahren wir etwas Anderes, wenn wir Daten als Anomalien präsentieren. In den Abbildungen 13 und 14 habe ich die Modelle↔Daten-Differenz durch ihre jeweiligen Mittel von 1880 bis 2013 ersetzt. Dies konvertiert die absoluten Differenzen in Anomalien. Wir benutzen den vollen Datensatz als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht durch eine entsprechende Auswahl der Zeiträume verzerren. Mit anderen Worten, niemand kann uns vorwerfen, dass wir bzgl. der Referenzjahre Rosinenpickerei betrieben hätten. Die 10-Jahre-Mittelkurven (rot) helfen, die Auswirkungen des jüngsten Stillstandes ins Verhältnis zu setzen.

Man vergesse nicht, falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen auf der Erde angemessen simulieren, wäre die Differenz eine gerade Linie, und in den folgenden beiden Fällen wäre jene gerade Linie eine Null-Anomalie.

Für das Mittel der GISS- und NCDC-Daten (Abbildung 13) gilt, dass die Divergenz zwischen Modellen und Daten infolge des jüngsten Stillstandes heute die größte (schlechteste) seit etwa 1890 ist.

Abbildung 13

Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und den BEST-Daten (Abbildung 14) als Folge des Stillstandes, ist die Modell-Performance während des jüngsten Zehn-Jahre-Zeitraumes die schlechteste jemals bei der Simulation der globalen Temperaturen.

Abbildung 14

Falls man noch einmal zurück zu Abbildung 7 geht, wird man feststellen, dass es eine kleine Untermenge von Modellläufen gibt, die die Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur unterstreicht. Sie liegen so eng beieinander, dass es sehr wahrscheinlich zu sein scheint, dass jene Modelle an jene Temperaturen angepasst worden sind.

Nun kann ich mir vorstellen, dass man daran interessiert ist, um welche Modelle es sich dabei handelt. Siehe Abbildung 15. Es handelt sich um die 3 Ensemble-Member des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Member des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15

Das bedeutet nicht, dass die Modelle MIROC5 und GISS-E2-R irgendwie besser sind als alle anderen Modelle. Soweit ich weiß, können diese beiden immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die zu einer Erwärmung der globalen Temperaturen über multidekadische Zeiträume führen oder die diese Erwärmung stoppen können, wie AMO und ENSO. Wie oben erwähnt zeigt ihre größere Nähe zu den aktualisierten Schätzungen der absoluten Temperatur auf der Erde, dass jene beiden Modelle an diese angepasst worden sind. GISS sollte in Betracht ziehen, ihre Schätzung von 14,0°C der absoluten globalen Temperatur für ihre Referenzperiode zu aktualisieren.

Schließlich haben wir während der letzten paar Jahre auf zahlreichen Wegen gezeigt, wie schlecht die Modelle abgeschnitten haben. Darunter waren:

Global Precipitation

Satellite-Era Sea Surface Temperatures

Global Surface Temperatures (Land+Ocean) Since 1880

Global Land Precipitation & Global Ocean Precipitation

Alle diese Beiträge waren auch bei WattsUpWithThat gepostet.

Link: https://bobtisdale.wordpress.com/2014/11/09/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/

Übersetzt von Chris Frey EIKE




Bei Harald Lesch sind Hopfen (und Malz) verloren

Also, es geht um das kürzlich veröffentlichte Video von Harald Lesch (ursprünglich von TerraX, ZDF), wo er so ungefähr die Ausrottung des europäischen Hopfens (warum nicht gleich der gesamten Bier-produzierenden Wirtschaft?) an die Wand malt…

Als Botaniker bin ich natürlich der Sache mit dem armen Hopfen gleich nachgegangen. Beim youtube-Video von Leschs Predigt war unten auch eine Adresse, die ich aufsuchte: meine ziemlich starke Überraschung folgt hier anschließend  

Man achte genau darauf, was Lesch über die Schädlichkeit von höheren CO2-Gehalten für den HOPFEN sagt – und dann lese man das Abstract des folgenden Artikels, der Leschs „Quelle“ war (so angegeben auf der Seite unten):

Review: The impact of climate change on the yield and quality of Saaz hops in the Czech Republic

Martin Moznya, , , Radim Tolasza, , Jiri Nekovara, , Tim Sparksb, , Mirek Trnkac, , Zdenek Zaludc,

doi:10.1016/j.agrformet.2009.02.006

Abstract

The impact of climate change on the production and quality of hops Humulus lupulus will depend on future weather conditions in the growing season. Our simulations suggest that hops will be particularly vulnerable to a change in climate. Even with the modest warming so far experienced yields have stagnated and quality declined. Recorded observations show an increase in air temperature which is associated with an earlier onset of hop phenological phases and a shortening of the vegetation period [wieso bei vorgezogenem Eintritt der Vegetationsperiode – die bekannten geringen Verfrühungen – es zu einer Verkürzung der gesamten Vegetationsperiode kommen soll, ist mir nicht ersichtlich.]. Simulations using future climate predict a decline in both yields, of up to 7–10%, and α-acid content [das dürfte der führende Inhaltsstoff sein, Humulon], of up to 13–32%, the latter a major determinant of quality. The concentration of hop cultivation in a comparatively small region in the Czech Republic makes it more vulnerable than if the crop were grown in more areas with different climates [ach, sieh mal an!]. Thus climate change may gradually lead to changes in the regionalization of hop production. Policy assistance may be necessary [Nachtigall, ick hör dir trapsen… „das Eingreifen des Staates“ wird mal wieder herbeigebetet, damit sie er armen tschechischen Hopfenindustrie, die durch die Klimakatastrophe bedroht ist, hilft…] for the adaptation of the Czech hop growing industry to changed climatic conditions.

Keywords: Hops; Climate impacts; Yield; α-Acid 

Wo ist hier von den höheren CO2-Werten die Rede, die der Pflanze schaden? Der simulierte(!) zukünftige Klimawandel soll dem Hopfen schaden! 

Leschs Ermutigung, sich den Kant zwecks mehr Aufklärung zu Herzen zu nehmen, ist bitter-ernst zu nehmen. Leider hat er selbst – so vermute ich – in ein trotz Klimakatastrophe immer noch bei uns erhältliches HOPFEN-haltiges Getränk zu tief hineingeschaut und ihm ist dadurch die Klarheit des Bewusstseins völlig entglitten.- Kant war nicht schuld daran. Hopfen auch nicht, sondern LESCH. Und das ZDF, unser zweitbestes Gehirnwaschmittel. 1x täglich, genügt! 

Ansonsten kenne ich eine (1) Arbeit, die bei zwei (2) Pflanzen nachwies, dass die Aufnahme von Stickstoff zurückgeht, wenn die Pflanzen mehr Kohlendioxid bekommen. Daraus aber gleich solche Schlüsse zu ziehen – 1) für alle C3-Pflanzen, 2) für alle C4-Pflanzen gleichermaßen, 3) … usw. , ist vorschnell. Hinzukommt, dass allein die Fotosynthese ja auf mehrere Faktoren angewiesen bzw. von ihnen abhängig ist: Licht, Menge, Dauer; Temperatur; verfügbares Wasser; CO2; dann können Prozesse wie die Stickstoff-Assimilation oder von weiteren essentiellen Elementen mit den durch die Fotosynthese gebildeten Reduktionsäquivalenten „konkurrieren“ usw.

Die Physiologie der Pflanze ist hochkomplex, und Gegenregulationen, Anpassungen, langsame Adaptationen – alles ist denkbar. Zumal ja die Blütenpflanzen seit der Oberkreide(?) existieren und seitdem die CO2-Werte drastische Veränderungen durchgemacht haben. Eigentlich dürfte es sie – nach Lesch – gar nicht mehr geben.

Wenn ich in eine Pflanzenphysiologie z.B. von Mohr & Schopfer hineinschaue, finde ich Kurven für die Fotosyntheseleistung in Abhängigkeit von atmosphärischen CO2-Werten. Daraus geht auf jeden Fall hervor, dass der OPTIMALwert des atmosphärischen CO2 für die Fotosynthese noch lange nicht erreicht ist. Ganz im Gegenteil, wir sind davon noch weit entfernt. Von Negativ- oder gar „Umkipp“-Prozessen fand ich da noch nichts. 

Lesch´s so „eindringliche“ Behauptung im Video (sogar seine Körpersprache scheint zu sagen: „Uhh, wie gefährlich, schrecklich, das wird ganz schlimm, und die Klimaleugner wollen das ALLES nicht wahrhaben!!“), da sei nur „ein schmaler Korridor“ für ein positive Wirkung erhöhter CO2-Werte, bevor es gleich wieder nachteilig wird, finde ich abenteuerlich! Er hätte wenigstens mal sich erkundigen können, was denn eigentlich die Erwerbsgärtner dazu sagen, die bestimmte Gewächshausfrüchte sogar mit CO2 begasen – um das Wachstum zu fördern. 

Mit freundlichem Gruß, hoffentlich brachte Ihnen dies hier etwas, 

Michael Kalisch (Diplombiologe)

Freier wissenschaftlicher Autor