Klimawissenschaft: Fehler von Fehlverhalten trennen

In einem kürzlich bei Climate Audit erschienenen Artikel wird untersucht, ob eine Graphik absichtlich oder unabsichtlich verkehrt herum dargestellt worden ist. In der Einleitung wird gefragt:
Spielt es eine Rolle, ob Proxys verkehrt herum verwendet werden oder nicht?
Vielleicht nicht in der Welt von Michael Mann (in der er als Erwiderung auf unsere Kritik bei PNAS behauptete, dass es für ihn unmöglich sei, Reihen verkehrt herum zu verwenden). Aber anders als Mann räumt Darrell Kaufman die Verantwortung ein, Proxy-Reihen in der richtigen Reihenfolge zu verwenden. Unglücklicherweise scheinen er und die PAGES2K-Autoren nicht sehr erpicht darauf zu sein sicherzustellen, dass sie das auch so machen.
Diese Story läuft parallel zur Tijander-Graphik, einer früheren Verkehrt-Herum-Präsentation in dem Debakel um den „Hockeyschläger“, der dazu erdacht worden ist, die Klima-Historie umzuschreiben dergestalt, dass die Mittelalterliche Warmzeit MWP aus den Statistiken eliminiert wird. Bei Climate Audit hat man sich auch die Tijander-Graphik vorgenommen und erschöpfend untersucht.
McIntyre und McKitrick (M&M) kommt der Verdienst zu, die von Mann et al. angewendeten ungeeigneten statistischen Methoden bloßgestellt zu haben, mit denen die Hockeyschlägergraphik erstellt worden ist. Diese hat ja den Missbrauch der Klimawissenschaft seitens des IPCC an das Tageslicht gebracht. Allerdings hat der große australische Skeptiker John Daly das größere Problem erkannt, bevor M&M die falschen Methoden bloßgestellt hatten. Ich empfehle dringend allen Menschen Dalys bemerkenswerte Analyse in seinem Artikel „The ‘Hockey Stick’: A New Low in Climate Science” zu lesen. Man beachte, dass dieser Artikel vor M&M erschienen war, findet sich doch darin keinerlei Querverweis auf deren Arbeit. Stattdessen handelt es sich dabei um eine synoptische Klimaanalyse dessen, was falsch ist.
Ich verstehe es so, dass McIntiyre den „Hockeyschläger“ auf einer Konferenz gesehen und ohne zu wissen, dass es eine Darstellung der globalen Temperatur sein sollte, aus seiner Erfahrung mit Statistik heraus sofort erkannt hat, dass es sich um eine potentiell manipulierte Darstellung handelt. Aus der Analyse von M&M geht klar hervor, mit welchen spezifischen Mitteln diese Graphik erzeugt worden ist. Eine Zeitlang kritisierten Kommentatoren auf der Website von McIntyre, dass dieser unwillig war zu sagen, dass Manns Aktionen absichtlich irreführend waren. Korrekterweise billigte ihm McIntyre zunächst das Recht auf Zweifel zu und ging davon aus, dass es bei ihm fehlendes Wissen und Verständnis war. Ethisch gibt es einen Unterschied zwischen einem Fehler und einem vorsätzlichen Fehler. Dies war Thema meiner Präsentation auf der 6. Heartland-Klimakonferenz in Washington D.C., aber dort kam das Argument, dass der gesamte IPCC-Prozess vorsätzlich war ebenso wie die Ergebnisse ihrer Computermodelle.
Der Missbrauch spezialisierter Methoden und Verfahren ist ein fundamentales Problem wegen der allgemeinen wissenschaftlichen Natur der Klimatologie. Die meisten sind Spezialisten nur in einer einzelnen Hinsicht und nennen sich dann fälschlich Klimawissenschaftler. Wenn sie versuchen, Stücke des riesigen Systems zusammenzufügen, müssen sie unvermeidlich zu unvertrauten Methoden und Verfahren greifen. Die Wahrscheinlichkeit eines Fehlers ist hoch. Dies ist höchst problematisch für Computer-Modellierer.
Das IPCC hat solche Spezialisten zusammengebracht und sie damit beauftragt, die Hypothese zu beweisen (anstatt sie zu widerlegen), dass die Menschen Grund für die globale Erwärmung (AGW) sind. Es war eine unheilige Allianz, die ein Umfeld von Missbrauch schuf. Sie fabrizierten wissenschaftliche Beweise in Fachbereichen, von denen sie kaum Ahnung hatten, und zwar mit Methoden und Verfahren, von denen sie sogar noch weniger Ahnung hatten. Mit massiven Finanzzuwendungen und politischer Unterstützung wurde dies zu einem Rezept für Katastrophen, wie es in den durchgesickerten E-Mails der Climate Research Unit (CRU) offenbar geworden ist. Das Ergebnis rechtfertigt die Mittel: man tue alles, was immer notwendig ist, um zu zeigen, dass menschliches CO2 die Ursache der globalen Erwärmung ist und dass die derzeitigen Temperaturen die höchsten jemals waren. CRU war eine kleine Gruppe und ein klassisches Beispiel von Gruppendenken, befeuert durch die Politik, wie ich seinerzeit hier erklärt habe.
Irving Janis erklärt das Konzept von Gruppendenken, welches Einmütigkeit erfordert auf Kosten von Entscheidungen hinsichtlich der Qualität. Ein kürzlich bei WUWT erschienener Beitrag befasste sich mit dem Problem des Gruppendenkens im Gebiet der Physik (hier):
Vom Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Aktionen durchzuführen, die andere Gruppen entseelen. Eine Gruppe ist besonders verwundbar durch Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe abgeschirmt ist von externen Meinungen und wenn es keine klaren Regeln für die Entscheidungsfindung gibt.
Lubos Motl berichtete über den Kommentar von Benjamin Santer vom 25. April, in dem er sagte:
Ich schaute mir Einiges von dem Zeug bei Climate Audit an. Ich hatte wirklich das Gefühl, dass ich mal mit einigen dieser „Auditoren“ in einer dunklen Ecke reden sollte.
Dies ist der gleiche Santer, der als Leitautor einen zuvor abgesegneten IPCC-Bericht noch verändert hat. Avery und Singer schrieben im Jahre 2006:
Santer hat im Alleingang die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes auf den Kopf gestellt und damit auch den politischen Prozess bzgl. der globalen Erwärmung! Der vom IPCC proklamierte vermeintliche ,erkennbare menschliche Einfluss‘ wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Diskussionen unter Nichtwissenschaftlern“.
Es ist kaum vorstellbar, dass Santer nicht wusste, was er tat. Als seine Änderungen öffentlich gemacht worden waren, wurde eine rapide Antwort erzeugt, die eine Vertuschung zu sein scheint. Zu den diesbezüglichen Aktionen folgt hier noch einmal mit kleinen Änderungen, was ich seinerzeit dazu geschrieben habe:
Am 4. Juli 1996, kurz nach der Enthüllung, wartete das offensichtlich willfährige Journal Nature mit einem Artikel auf unter der Überschrift A Search for Human Influences On the Thermal Structure of the Atmosphere”. Mitgeliefert wurde eine nur allzu bekannte Liste von Autoren – Santer, Wigley, Mitchell, Oort und Stouffer. Er bot beobachtbare Beweise, die zeigten, dass die Modelle akkurat waren. Eine Graphik ist so viel wert wie tausend Worte, wie Manns „Hockeyschläger“ zeigte, und genauso war es mit Santers ,erkennbarem menschlichen Einfluss‚. John Daly reproduzierte die Graphik von Santer et al. (Abbildung 1) mit dem aufwärts gerichteten Temperaturtrend in der oberen Atmosphäre:

Abbildung 1
Dann erstellte Daly eine Graphik mit dem größeren Datensatz in Abbildung 2 und erklärte: „Wir erkennen, dass die in Santers Version erkennbare Erwärmung einfach das Ergebnis der ausgewählten Daten ist“ (Fettdruck von Daly):

Abbildung 2
Fast sofort wurden Fehler entdeckt, aber Nature hat sich mit der Veröffentlichung der Widerlegungen 5 Monate Zeit gelassen (bis zum 12. Dezember 1996), nachdem der oben besprochene Artikel veröffentlicht worden war. Einer erkannte die Rosinenpickerei, ein anderer stellte eine natürliche Erklärung für das Phänomen vor. Allerdings war zu jener Zeit die PR-Verschleierung bereits im Gange. Am 25. Juli 1996 sandte die American Meteorological Society AMS eine Brief der Verteidigung an Santer. Der Brief scheint den CRU-Einfluss zu beweisen und ist ein PR-Meisterstück. Es hieß darin, dass es zwei Fragen gebe, die Wissenschaft und was die Gesellschaft hinsichtlich der wissenschaftlichen Ergebnisse und der Debatte tun muss, die sie ausgelöst haben. Wissenschaft sollte nur in wissenschaftlich begutachteten Fachjournalen besprochen werden und nicht in den Medien. Dies war die in einer durchgesickerten E-Mail bestätigte Strategie von Mann. „Das war die Gefahr, die Skeptiker immer zu kritisieren, weil sie nichts in der ,begutachteten Literatur‘ veröffentlichen“. Darauf schrieb die AMS: Was zählt, ist wissenschaftliche Information und wie diese in politischen Debatten interpretiert wird. Das ist ein wichtiger Teil unserer Aufgaben. Das sind schließlich die wirklichen Gründe für die Vermischung von Wissenschaft und Politik im IPCC. Daly nannte das zu Recht „Wissenschaftismus“ [scientism].
Die Zurückweisung scheint zu belegen, dass Santer wusste, was er tat mit seinen Original-Änderungen des IPCC-Berichtes. Er wusste eindeutig um den willkürlich gewählten Start- und Endzeitpunkt der Graphik. Jeder Graph muss einen Start- und einen Endzeitpunkt haben, aber dieses Beispiel fand sich in einem Artikel, der geschrieben worden war, um die Bloßstellung seiner Umformulierungen zu verwerten.
Die Verteidigung von Santer erfolgte offensichtlich konzertiert und folgte einem Muster, das immer dann zur Anwendung kam, wenn Fehlverhalten ans Tageslicht gekommen war. Das Einspannen offizieller Agenturen zur Abdeckung des Fehlverhaltens erklärt vieles, warum das immer weiter betrieben wurde. Es erklärt auch, warum die Täter weiterhin glauben, dass sie nichts Falsches getan haben.
Phil Jones hat nach der Veröffentlichung der E-Mails die Polizei gerufen. Um die Behauptung eines Hacker-Angriffs zu stützen, musste er zugeben, dass sie echt waren. Die Ergebnisse waren bedeutungslos, weil sich die Untersuchung hinzog, bis das Statute of Limitations [?] ausgelaufen war. In einer dem widersprechenden Schlussfolgerung sagte die Polizei:
Besonders die internationale Dimension, das World Wide Web zu untersuchen, hat sich als extreme Herausforderung erwiesen … Als Ergebnis unserer Ermittlungen können wir jedoch sagen, dass der Datendiebstahl das Ergebnis eines ausgeklügelten und sorgfältig orchestrierten Angriffs auf die Datensätze der CRU war, durchgeführt via Internet“.
Das ist einfach unglaubwürdig angesichts des Ausmaßes, mit dem gewöhnliche Bürger ausspioniert werden, und angesichts des Ausmaßes an Wissen, das erforderlich ist, um aus 220.000 E-Mails 1000 herauszufiltern. Es gibt drei Möglichkeiten: Sie sind inkompetent, absichtlich irreführend oder beides. Wie auch immer, es war zu langsam, um dem Glaubwürdigkeitsverlust der gesamten IPCC-Operation zu begegnen.
Als Folge wurden blitzartig fünf kontrollierte Untersuchungen initiiert, alle orchestriert, um irrezuführen und abzulenken. Hans von Storch schrieb über die 3 Untersuchungen in UK:
Wir müssen uns selbstkritisch fragen, was da geschehen ist. Nichts darf unter den Teppich gekehrt werden. Einige der Untersuchungen wie in UK haben genau das getan. Sie haben eine Gelegenheit, Vertrauen wiederherzustellen, verpasst“*
[*Rückübersetzung aus dem Englischen].
Lord Oxburgh wurde berufen, eine der Untersuchungen zu leiten.
Oxburgh war kompromittiert, weil er ein Mitglied der Royal Society ist. Wichtiger aber ist, dass er leitender Direktor der Carbon Capture and Storage Association und Vorsitzender of Falck Renewable Resources ist, die sehr von der Behauptung profitieren, dass menschliches CO2 Erwärmung verursacht. Er befürwortete auch die Erwärmungs-Behauptung als Vizevorsitzender von GLOBE International in UK, einem Konsortium von Industrie, NGOs und der Regierung, die für die Politik zur globalen Erwärmung Lobbyarbeit leistet.
Es folgt eine Liste der Probleme bei der Oxburgh-Untersuchung:
Die Oxburgh-Untersuchung sollte die CRU-Wissenschaft untersuchen, aber um das zu tun, gab es a) keine öffentlichen Anhörungen und b) keine Anforderung von Beweisen.
Nur 11 akademische Studien wurden untersucht, eine Liste, die von Phil Jones unter die Lupe genommen worden war. Er war Direktor der CRU, also der Agentur, die untersucht werden sollte.
Interviews mit CRU-Mitarbeitern wurden nur hinter verschlossenen Türen durchgeführt.
Es gab keine Zusammenkunft mit CRU-Kritikern.
Die UEA hatte die effektive Kontrolle über die gesamte Untersuchung.
Das Select Committee des Unterhauses in UK hat Oxburgh hinsichtlich der Oberflächlichkeit seiner Studie und seines Berichtes sowie seiner versprochenen Begutachtung der Wissenschaft in die Mangel genommen.
Mehr Informationen hierzu gibt es in der detaillierten Zusammenfassung der Grenzen aller Untersuchungen bei Andrew Montford. Die Untersuchung von Muir Russell war so schlecht, dass selbst Guardian’s Fred Pearce schrieb:
Geheimniskrämerei stand bei der CRU auf der Tagesordnung. Wir fanden, dass es dort ein konsistentes Verhalten gab, nicht dem gebotenen Grad an Offenheit zu folgen, heißt es in dem Bericht. Diese Kritik richtet sich nicht nur an Jones und sein Team an der CRU. Sie richtet sich genauso an die Universität selbst, die empört sein könnte, sich selbst genauso im Schlamassel zu finden wie die Wissenschaftler, über die zu richten Russell beauftragt worden war“.
Jeder macht Fehler in der Wissenschaft, aber normalerweise werden diese im idealerweise unpersönlichen und professionellen Begutachtungsprozess gefunden. In Santers Fall haben seine Mitautoren die Begutachtung durchgeführt. Er hat beschlossen, deren Bedenken beiseite zu schieben und wurde erwischt. Der Artikel zum Hockeyschläger war begutachtet, aber wie Prof. Wegman in seinem Bericht an ein Komitee des Kongresses schrieb:
In unserer weiteren Erkundung des Netzwerkes der Autoren der Temperatur-Rekonstruktion fanden wir, dass mindestens 43 Autoren direkte Verbindungen zu Dr. Mann haben, und zwar in Gestalt der Mitautorenschaft seiner Studien. Unsere Ergebnisse dieser Analyse zeigen, dass Autoren im Fachgebiet Paläoklima eng verbandelt sind und dass daher ,unabhängige Studien‘ nicht so unabhängig sein könnten, wie sie an der Oberfläche aussehen.
Dieses Ergebnis wurde durch die durchgesickerten CRU-E-Mails bestätigt. Die Korruption dieses Prozesses seitens der CRU bedeutete Fehler, die absichtlich oder unabsichtlich Eingang in die wissenschaftliche Aufzeichnung fanden. Außerdem wurde die Verschleierung und die Ablehnung der Veröffentlichung von Daten zum Standard. Wegman dazu:
Es ist nicht klar, dass Mann und seine Verbündeten den Fehler in ihrer Verfahrensweise zur Zeit der Veröffentlichung erkannt haben. Infolge fehlender vollständiger Dokumentation ihrer Daten und Computer-Codes waren wir nicht in der Lage, ihre Forschungen nachzuvollziehen. Wir haben jedoch bei der Reproduktion der Verfahren von M&M ähnliche Ergebnisse wie diese erzielt. Dieses Nachvollziehen stützt die Kritik der MBH98-Methoden, wo der Offset* des mittleren Wertes eine künstlich große Abweichung vom gewünschten mittleren Wert Null erzeugt.
[*Original: „as the offset of the mean value creates an artificially large deviation from the desired mean value of zero“. Das habe ich inhaltlich nicht verstanden. Im LEO werden für ,offset‘ so viele Bedeutungen angezeigt, dass ich deswegen da ratlos war. Anm. d. Übers.]
Sie wussten, warum man die Daten in Erfahrung bringen wollte. Phil Jones antwortete am 21. Februar 2005 auf die Datenanforderung von Warwick Hughes so:
Wir haben etwa 25 Jahre in die Arbeit gesteckt. Warum sollte ich Ihnen die Daten zugänglich machen, wenn es Ihr Ziel ist zu versuchen, Fehler darin zu finden?“
Später sagte Jones dass er die Daten verloren habe. Werden auch andere Daten im Nirwana verschwinden?
Bedeutsam ist hier die Natur des Fehlers. Falls er entscheidend war für eine These oder eine wissenschaftliche Schlussfolgerung, wurde der Fehler aus Inkompetenz oder mit Absicht gemacht. Wie auch immer, die dafür verantwortliche Person ist auf seiner Position wegen seiner Behauptungen fehl am Platze.
Entscheidend für die IPCC-Objetive war die Notwendigkeit zu beweisen, dass die menschliche Erzeugung von CO2 zu Temperaturzunahmen führte und Temperaturen zeitigte, die in der gesamten Historie höher denn je lagen. Ist es Zufall, dass dies die Bereiche sind, wo die Wissenschaft geschaffen wurde, um das vorbestimmte Ergebnis zu bekommen? Es scheint, dass sich eine Verteilung von Fehlern heraus kristallisiert, die Fehlverhalten beweisen. Unglücklicherweise weiß ich nicht um die Verantwortlichkeiten, aber dies ist allgemein die Lage mit den verbundenen Punkten des Fehlverhaltens in der heutigen Gesellschaft.
Link: http://wattsupwiththat.com/2014/10/12/climate-science-separating-mistakes-from-malfeasance/
Übersetzt von Chris Frey EIKE




Das Solardebakel von Calasparra

Das Glück schien es gut zu meinen mit uns. Nach Murcia lichtete sich die Wolkendecke, und als wir nach einer halbstündigen Fahrt durch blühende Obstplantagen in Calasparra eintrafen, war der Himmel knallblau. Verheis­sungsvoll glitzerte die Sonne in den Spiegeln, die das Solarkraftwerk Puerto Errado* aufheizen. Auf einer Fläche von 65 Hektaren, was etwa 84 Fussballfeldern entspricht, so erfahren wir im Hochglanzprospekt, wird hier sauberer Strom für 15 400 Haushaltungen produziert. Den Treibstoff liefert, gratis und franko, die Natur. Was will man mehr.
Das vermeintliche Glück erweist sich indes, wie so vieles, was wir in diesen zwei Tagen in Calasparra erleben, als hinterhältiger Irrtum. Leider, so erklärte uns Isaac Hernández, der Chef des Solarkraftwerks Puerto Errado, werde die Anlage heute nicht mehr in Betrieb genommen. Der Himmel über Calasparra war an diesem Tag die meiste Zeit bedeckt gewesen, und die zwei Stunden Abendsonne reichten nur knapp aus, um die Produktion hochzufahren. Weil Dampfturbinen aber schneller altern und revidiert werden müssen, wenn sie dauernd rauf- und runtergefahren werden, ­verzichte man auf den ohnehin geringen ­Rest-Ertrag.
Wir nutzen die Zeit also für eine ausgedehnte­ Besichtigung von Puerto Errado – einem ­Bijou deutscher und schweizerischer Inge­nieurs­kunst. Verstellbare Spiegel, die sich ständig nach dem Stand der Sonne richten, lenken die Strahlen auf Kollektoren, wo sie Wasser auf rund 280 Grad Celsius aufheizen. Über ein weitverzweigtes Leitungsnetz wird der Wasserdampf dann zu den beiden Dampfturbinen geleitet, welche die Generatoren antreiben. Das Prinzip hört sich simpel an, doch die richtige Temperatur und die richtige Konsistenz des Dampfes hinzukriegen, ist hohe Kunst, die ein komplexes computergesteuertes Netz an Reglern und Ventilen vollbringt.
Dampfturbinen haben etliche Vorteile ­gegenüber den marktüblichen Solarpanels, bei denen die Sonnenstrahlen direkt in Strom umgewandelt werden. Man braucht weniger und vor allem auch keine hochgiftigen Rohstoffe, was sich im Preis niederschlägt. Die Wärmekollektoren sind weniger kompliziert aufgebaut als Solarpanels und haben damit eine längere Lebenserwartung. Da sich der Dampf in Puerto Errado über rund zwanzig Minuten speichern lässt, wenn etwa eine Wolke über den Himmel zieht, ist die Stromproduktion weniger den Schwankungen ausgesetzt, die den Netzbetreibern bei der Fotovoltaik Kopfzerbrechen bereiten. In Calasparra, wo auch ein Fotovoltaik-Kraftwerk von einer vergleichbaren Grösse steht, lässt sich das am praktischen Beispiel zeigen: Bei einer bloss um 50 Prozent höheren Spitzenleistung produzierte das Solar-Dampf-Kraftwerk Puerto Errado im letzten Jahr etwa doppelt so viel Strom (41,4 GWh) wie sein fotovoltaischer Konkurrent (21,2 GWh).
Zum Vergleich: Das Wasserkraftwerk Mühleberg (Wohlensee) produzierte im gleichen Zeitraum 157 GWh Strom, also knapp das Vierfache, während das AKW Mühleberg rund 2600 GWh Strom lieferte. Oder andersherum: Wollte man das kleinste Schweizer AKW durch spanischen Solarstrom ersetzen, brauchte es 62 Anlagen in der Grösse von Puerto Errado 2. Nicht mit eingerechnet sind dabei allerdings die Verluste beim Transport durch eine 1400 Kilometer lange Überlandleitung, die es im Moment noch nicht gibt.

Und dann wäre da noch ein zweites Problem: Auch in Spanien scheint die Sonne vor allem im Sommer – doch wir brauchen den Strom vor allem im Winter.Die saisonalen Unterschiede sind auch im sonnenreichen Süden Spaniens drastisch. Im Spitzenmonat Juli produzierte Puerto Errado achtmal mehr Strom als im letzten Dezember.

Das hat mit dem Einstrahlungswinkel der Sonne und der Länge der Tage zu tun – und mit dem Wetter. Nehmen wir zum Beispiel die Woche vom 16. bis zum 23. Februar. Die ersten drei Tage­ stand das Werk still wegen schlechten Wetters. Der 19. war ein perfekter Sonnentag: Nach einer Aufheizphase von knapp zwei Stunden produzierte das Werk zwischen 10 und 17 Uhr auf einer Turbine (die zweite wird nur im Sommer zugeschaltet) die volle Leistung (15 Megawatt). Der 20. Februar lief gut an, bis gegen 15 Uhr der Himmel wieder zumachte. Auch am folgenden Tag war tote Hose, danach ging es wieder bergauf. Der 23. Februar wäre perfekt gewesen, leider etwas zu perfekt – wegen eines Überangebots an Windenergie im Netz musste Puerto Errado seine Tagesproduktion um 30 Prozent drosseln.
Werkchef Isaac Hernández vertröstet uns auf den nächsten Tag – «mañana» wird das Wetter freundlicher sein. Und tatsächlich, nach 8 Uhr verzieht sich der Morgennebel aus den blühenden Obstplantagen, die Puerto ­Errado umgeben. Die Solarspiegel gleissen in der milden Wintersonne, dass es eine Freude ist, und auch das Gesicht des Betriebschefs hat sich aufgehellt. Isaac – wir haben uns nach spanischer Sitte von Anfang an geduzt – brennt darauf, den Besuchern heute sein tadellos funktionierendes Hightech-Solarkraftwerk zu zeigen. Schweizer Elektrizitätswerke – die EBL und die IWB aus den beiden Basler Halbkantonen, das EWZ und die EKZ aus Zürich sowie die Berner EWB – haben für Puerto Er­rado immerhin den stolzen Betrag von insgesamt 180 Millionen Franken hingeblättert.

Bescheidener Ertrag – enormer Verschleiss

Früher arbeitete Isaac in einem der Gaskombikraftwerke, die man benötigt, um die Strom­engpässe bei Wind- und Sonnenflauten auszugleichen. Doch Puerto Errado ist für ihn mehr als ein Job: «Es ist doch schön, etwas Gutes für die Umwelt zu tun.» Isaac räumt ein, dass die Kapriolen des Wetters der grosse Haken an der Sache seien, den selbst die raffinierteste Technologie der Welt nicht aus der Welt schafft. ­Damit das Netz nicht zusammenbricht, muss man immer so viel Strom einspeisen, wie man rausnimmt – und das ist ziemlich schwierig, wenn man nie weiss, wie viel Strom gerade kommt. Eine einigermassen wirtschaftliche Möglichkeit, den Strom in grossen Mengen über längere Zeiträume zu speichern, ist leider nach wie vor nicht in Sicht.
Immerhin, so versichert Isaac, seien die meteorologischen Prognosen heute so verfeinert, dass man die Produktion danach richten und planen könne. Heute zum Beispiel, so steht es auf dem Plan, den er auf seinen Bildschirm zaubert, soll Puerto Errado volle Winterlast fahren. Doch es ist, als führte der Teufel Regie: Während uns Isaac die Vorzüge computer­gestützter Vorhersagen erklärt, haben graue Wolken den Himmel überzogen.
Vielleicht ist es ja bloss ein gemeiner Zufall, die Ausnahme, welche die Regel bestätigt. Doch auch an diesem Tag braucht Puerto Er­rado nur Strom, ohne selber welchen zu erzeugen. Etwas ratlos sitzen die Ingenieure im Kommandoraum herum. Und das ist nun keine­ Ausnahme.

Das Kraftwerk läuft im Jahr gerade mal während 1400 Stunden auf Volllast – während 7360 Stunden, also die meiste Zeit, produziert die teure Anlage nichts.

Dass die Ausbeute in der Schweiz noch viel schlechter wäre, ist ein schwacher Trost.
Für Puerto Errado II wurden 65 Hektar fruchtbares Kulturland geopfert. In der sonnenreichen und trockenen Region von Murcia gäbe es zwar Brachland in Fülle, doch es eignet sich selten für Solarkraftwerke. Um diese einigermassen effizient zu betreiben, braucht es eine leicht gegen Süden geneigte Hanglage mit einem Anschluss ans Wassernetz – und solche Lagen werden naturgemäss auch landwirtschaftlich genutzt. Der Wasserverbrauch wurde dank einer ausgeklügelten Luftkühlung zwar auf ein Minimum beschränkt, doch ohne geht es nicht, zumal die Solarspiegel mindestens zweimal pro Woche gereinigt werden müssen. Wo es trocken ist, da gibt es naturgemäss immer auch viel Staub.

Ohne staatliche Abnahmegarantie und – unabhängig von Angebot und Nachfrage – ohne einen garantierten Preis von knapp 30 Eurocent pro Kilowattstunde wäre Puerto Errado ein gewaltiges Verlustgeschäft.

Auf dem spanischen Markt wird mit einem durchschnittlichen Referenzpreis von 5 Eurocent pro kWh Strom gerechnet.

Die Differenz von 25 Eurocent wird über Zwangsabgaben beglichen.

Zwar prophezeit die Ökobranche seit drei Jahrzehnten den unmittelbar bevorstehenden Preiszerfall: Wenn der Ökostrom einmal in Massen produziert würde, so die Theorie, würde er auch billiger. Das mag auf den ersten Blick einleuchten. In der Praxis ging die Rechnung bislang nicht auf.

Denn dem relativ bescheidenen Ertrag von Sonne und Wind steht ein enormer Verschleiss an Ressourcen (Land, Arbeit, Infrastruktur) entgegen.

Und diese Ressourcen werden bei einer steigenden Nachfrage nicht billiger, sondern eher teurer. Kommt dazu, dass die ständig der Witterung ausgesetzten Wind- und Solaranlagen rapide altern und entsprechend schnell abgeschrieben werden müssen.
Spanien ist neben Deutschland der grösste Solarstrom- und Windstromproduzent Europas. Seit der Jahrtausendwende haben die Iberer­ den Ökostrom mit zweistelligen Milliardenbeträgen subventioniert.
2009 sorgte indes eine breitangelegte Untersuchung der Universidad Rey Juan Carlos in Madrid für ­einen Schock. Die Studie kam zum Schluss, dass der Ökoboom zwar vorübergehend und vor allem im Baugewerbe gegen 50 000 neue Arbeitsplätze geschaffen hatte – dass aber für jeden der hochsubventionierten green jobs 2,2 Stellen in der realen Wirtschaft verloren­gegangen waren.
Die Erklärung: Die massiv erhöhten Strompreise führten bei der Industrie, aber auch etwa im stromintensiven IT-Bereich zu einer Abwanderung ins Ausland. Wegen der witterungs­bedingten Unzuverlässigkeit des vermeint­lichen Ökostroms konnte Spanien seine Abhängigkeit von Öl- und Gasimporten zudem kaum reduzieren.

Ökostrom-Experiment ist gescheitert

Vom Atomausstieg redet in Spanien heute kaum noch jemand, die Laufzeiten der AKW wurden kürzlich auf unbestimmte Zeit verlängert.

Hingegen gibt es Pläne, die Subven­tionen für Ökostrom massiv abzubauen. Betreiber von Kleinstanlagen sollen sogar ganz auf Subventionen verzichten und darüber ­hinaus für die Regulierungskosten im Netz aufkommen. Die Lage ist ernst. Während die spanischen Stromgiganten auf einem Schuldenberg von 37 Milliarden Euro sitzen, sind die Staatskassen leer, siecht die Wirtschaft in der Euro-Krise vor sich hin.
Allein die Ankündigung des neuen Stromgesetzes liess den spanischen Ökoboom platzen wie eine Seifenblase. Noch ist nichts definitiv, kein Politiker wagt, den ersten Stein zu werfen, doch im Grunde wissen sie alle, dass das Experiment gescheitert ist.
Im municipio von Calasparra empfängt uns Bürgermeister Jesús Navarro. Die Gemeinde im Hinterland von Murcia wurde vom Zusammenbruch der Öko-Bonanza besonders hart getroffen. Neben der Landwirtschaft gibt es hier nicht viel – ausser eben Sonne und Wind in Hülle und Fülle. Im Vertrauen auf die Versprech­ungen der Regierung verschuldeten sich viele Bauern bis über die Ohren, um ihre Einkünfte als Wind- und Sonnenfarmer aufzubessern. Rund ein Drittel der 60 000 spanischen Klein­investoren, die auf Alternativenergie spekulierten, leben in der Gegend von Murcia. Und viele von ihnen stehen nun vor dem Ruin.
In Calasparra wurde eine Schule für Solar­installateure aus dem Boden gestampft, für ihre Pionierrolle wurde die Gemeinde mit Orden ausgezeichnet. Das ist nun alles Makulatur.
Jesús ist wütend – wütend auf die Regierung, die sich nicht an Versprechen hält, aber wütend auch auf die Elektrizitätsriesen, die den Strompreis in astronomische Sphären getrieben hätten. Hundert Euro bezahle eine durchschnittliche Familie hier monatlich für den Strom – und das ist in dieser Weltgegend eine Stange Geld. Achtzehn Cent kostet die Kilowattstunde mittlerweile. Den Einwand, dass die Verteiler denselben Strom den Solarfarmern für 30 Cent abkaufen müssten und dass diese Rechnung irgendwie nicht aufgehen könne, lässt Jesús nicht gelten. Die Stromgiganten seien politisch verfilzt und verdienten sich auf Kosten des Volkes eine goldene Nase.
Juan Ricardo Rothe, der mich als Projektleiter von Puerto Errado auf meinem Ausflug ins spanische Sonnenland begleitete, wirkt auf der Heimreise ziemlich nachdenklich. Das Solar-Dampf-Kraftwerk ist sein Kind. Im Auftrag der Elektra Baselland (EBL) leitete der sympathische Argentinier mit deutschen Wurzeln den Bau der Anlage, die im August 2012 planmässig ans Netz ging und seither ohne nennenswerte Pannen funktioniert. Darauf kann er stolz sein. Juan Ricardo brachte mir einen ganzen Stapel von Hochglanzprospekten über Puerto Errado mit. Doch die Realität, die wir vor Ort sahen, war etwas anders. Die Fragen, die mich interessieren, hatten die PR-Spezialisten der EBL sorgsam ausgeklammert.
Der 63-jährige Juan Ricardo Rothe befasst sich mit einer Reihe von Wind- und Solarprojekten in der europäischen Nachbarschaft, bei denen die EBL einsteigen möchte. Die Baselbieter liegen damit voll im Trend. Schweizer Elektrizitätswerke buttern seit Jahren diskret Hunderte von Millionen in ausländische Ökoprojekte. Das hat zum einen damit zu tun, dass die Schweiz wetterbedingt für Wind- und ­Solaranlagen denkbar ungeeignet ist. Auf der anderen Seite sind die Kassen voll. Und das ­Bedürfnis, etwas fürs Image zu tun, ist gross.

Die Realität hat keine Chance

Die massive Subventionierung der Alternativenergie ohne Rücksicht auf Angebot und Nachfrage hat zu einer übermässigen Stromproduktion und zu einem Zerfall der Marktpreise geführt. Darunter leidet vor allem die Wasserkraft. Neue Investitionen rechnen sich kaum noch.
Ein Beispiel dafür liefert das Projekt Chlus zwischen Küblis und Landquart im Bündner Prättigau. Mit Investitionen von 350 Millionen Franken liesse sich hier das Zehn­fache an Strom produzieren, der in Puerto Errado anfällt. Anders als in Spanien wäre die Produktion in den Bündner Bergen zuverlässig und sogar regulierbar. Staudämme und Stollen halten zudem Hunderte von Jahren und müssen nicht auf 30 Jahre abgeschrieben werden. Doch bei einem kalkulierten Preis von 12 Rappen pro kWh rechnet sich das Projekt Chlus einfach nicht – obwohl der heimische Wasserstrom dreimal günstiger zu haben wäre als der Solarstrom im fernen Spanien.
Als die Industriellen Werke der Stadt Basel (IWB) im letzten Herbst ihre finanzielle Beteiligung an Puerto Errado auf null abschrieben, flackerte am Rheinknie eine kurze Debatte über den Irrwitz der Strom- und Subventionspolitik auf. In der restlichen Schweiz schien sich indes keiner gross um das Thema zu scheren.

Das grüne Image des Ökostroms ist derart mächtig, dass die ernüchternde Realität dagegen keine Chance hat.

Vielleicht ist die Materie auch schlicht zu komplex, zu technisch, als dass man sich damit abmühen mag.
Juan Ricardo Rothe ist nicht nur ein erfahrener Ingenieur, sondern auch Ökonom. Er glaubt, dass der Wind- und Solarstrom durchaus einen Platz haben wird im Strommix und dass wir von den fossilen Brennstoffen wegkommen sollten. In Puerto Errado wird auch mit höheren Temperaturen experimentiert, die eine höhere Ausbeute brächten, aber auch mit Salzlösungen, in denen sich die Wärme etwas länger speichern liesse. Vielleicht wird dereinst sogar Solarstrom von Afrika nach Europa fliessen, wer weiss.
Aber selbst Rothe regt sich immer wieder auf über Politiker, die «hundert Prozent Ökostrom» verkünden und sich dabei keinen Deut um die Gesetze der Physik scheren.
Man kann es einem gewinnorientierten Unternehmen kaum verübeln, wenn es irrwitzige Subventionen abholt und dafür die von den Politikern gewünschten Systeme liefert, und mögen sie noch so ineffizient sein. Man kann sich allerdings fragen, ob es die Aufgabe von öffentlichen Schweizer Elektrizitätswerken ist, sich an solch spekulativen Auslandgeschäften zu beteiligen. Der spanische Traum vom garantierten Ökoprofit scheint vorerst geplatzt. Vielleicht wären die Investoren etwas vorsichtiger gewesen, wenn sie ein Wörterbuch in die Hand genommen hätten, bevor sie die Millionen nach Spanien schickten – Puerto Errado heisst auf Deutsch «falscher Hafen».
* Puerto Errado wurde von der deutschen Firma Novatec entwickelt. Der Prototyp «Puerto Errado 1» wird heute zu Forschungszwecken genutzt, die in der Reportage ­beschriebene Anlage heisst offiziell «Puerto Errado 2».
===================================================================
Anmerkung EIKE-Redaktion :
Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:
Die Weltwoche, Ausgabe 10/2014   ; http://www.weltwoche.ch/
EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.
===================================================================




Das Rätsel der Eiszeiten – Teil XII: GCM V – Wie enden Eiszeiten?

Im Teil XI betrachteten wir das Ende der letzten Eiszeit. Hauptsächlich haben wir Shakun et al. (2012) begutachtet, die einige sehr interessante Daten über das Timing der Temperaturen in der Süd- und der Nordhemisphäre gezeigt haben – zusammen mit atmosphärischen CO2-Werten. Kurz gesagt: Die Südhemisphäre begann sich zu erwärmen, kurz danach stiegen auch die CO2-Werte, was zu einer positiven Rückkopplung des initialen Temperaturanstiegs führte, und die globalen Temperaturen folgten der Südhemisphäre:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das Älteste Dryas (OD) und das Letzte Glaziale Maximum (LGM). Fehlerbalken, 1sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle (Aus Shakun et al. 2012, Abbildung 1).

Diese Studie in Nature enthielt auch einige Modellierungs-Arbeiten, die ich in mancher Weise kritisiert habe, aber die Modellierung stand nicht im Mittelpunkt der Studie. Eric Wolff, einer der führenden Komitee-Mitglieder bei EPICA, teilte diese Kritik an der Modellierung, die dann in der gleichen Ausgabe von Nature veröffentlicht wurde.

Im vorliegenden Artikel wollen wir das paper von He et al. (2013) betrachten, ebenfalls in Nature veröffentlicht. Dabei handelt es sich um eine Studie über die Modellierung der gleichen Vorgänge. Einer der Mitautoren ist Jeremy Shakun, der Leitautor unserer früheren Studie. Unter den Mitautoren waren auch Bette Otto-Bliessner, eine der Leitautorinnen im Kapitel zu Paläoklima im AR 5 des IPCC.

He et al. 2013

Leser, die diese Serie bis hier verfolgt haben, werden erkennen, dass das Abstract (aus dem wir unten zitieren) einige bekannte Features enthält:

Der Milankovitch-Theorie zufolge führten Änderungen der sommerlichen Einstrahlung in hohen nördlichen Breiten zu glazialen Zyklen infolge des Einflusses auf die Massenbilanz der Eisschilde. Statistische Analysen langer Klimareihen stützten diese Theorie, stellten aber auch eine substantielle Herausforderung dar, zeigten sie doch, dass Änderungen des Klimas auf der Südhalbkugel in Phase mit diesen auf der Nordhalbkugel waren oder diesen sogar vorausgingen.

Obwohl ein orbital getriebenes Signal auf der Nordhemisphäre irgendwie auf die Südhalbkugel hätte übergreifen können, kann der Strahlungsantrieb das lokale Klima der Südhemisphäre auch direkt beeinflussen, potentiell verstärkt durch Rückkopplungen mit dem Meereis. Dies würde zeigen, dass die beiden Hemisphären unabhängig voneinander auf verschiedene Aspekte orbitaler Antriebe reagieren. Das Aufspüren von Signalen in Klimaaufzeichnungen kann zwischen diesen Bedingungen allerdings nicht unterscheiden, weil die vorgeschlagenen Strahlungsantriebe im Wesentlichen eine identische Variabilität aufweisen. Hier verwenden wir transiente (transient = zeitlich veränderlich, Anm. der Redaktion) Simulationen mit einem gekoppelten allgemeinen Ozean-Atmosphäre-Zirkulationsmodell, um die Auswirkungen der Antriebe durch Änderungen des Orbits, der atmosphärischen CO2-Konzentration, der Eisschilde und der AMOC auf die hemisphärischen Temperaturen während der ersten Hälfte der letzten Deglaziation (vor 22.000 bis 14.300 Jahren) zu identifizieren. Obwohl nur auf einem einzelnen Modell basierend, stützt unsere Transient-Simulation mit ausschließlich orbitalen Änderungen die Milankovitch-Theorie, zeigt sie doch, dass die letzte Deglaziation durch zunehmende Einstrahlung im Frühjahr und Sommer in mittleren und hohen nördlichen Breiten initiiert worden ist sowie durch terrestrische Schnee-Albedo-Rückkopplung.

Weiter heißt es im Abstract:

Die Simulation mit allen Antrieben reproduziert am besten das Timing und die Größenordnung der Temperaturentwicklung auf der Südhalbkugel in den Proxy-Aufzeichnungen aus dieser Zeit.
Dies ist ein Modellergebnis ähnlich dem der Studie im Teil IX, in der das gleiche Verfahren individueller „Antriebe“ und eine Simulation mit allen „Antrieben“ kombiniert angewendet wird. Ich habe „Antriebe“ in Anführungszeichen gesetzt, weil die Antriebe (Eisschilde, Treibhausgase und Schmelzwasserflüsse) tatsächlich Rückkopplungen sind, die zu simulieren die GCMs jedoch nicht in der Lage sind. Änderungen der AMOC, die mit einem orbital induzierten Rückzug der nordhemisphärischen Eisschilde verbunden sind, sind die plausibelste Erklärung für die frühe Erwärmung der Südhemisphäre und deren Führungsrolle über die Temperatur der Nordhemisphäre; der darauf folgende CO2-Anstieg bedeutete die kritische Rückkopplung der globalen Deglaziation.

In dieser Studie gibt es die folgenden GCM-Simulationen:

• ORB (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen der orbitalen Konfiguration

• GHG (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen atmosphärischer Treibhausgas-Konzentrationen

• MOC (vor 19.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen von Schmelzwasserflüssen aus den Eisschilden der Nordhemisphäre und der Antarktis

• ICE (vor 19.000 bis 14.300 Jahren), getrieben nur durch quasi-kurzlebige Variationen der Orographie der Eisschilde sowie deren Ausdehnung aufgrund der ICE-5G (VM12)-Rekonstruktion.

Und dann gibt es da die ALL-Simulation, also eine Kombination all dieser Antriebe. Das verwendete GCM ist CCSM3 (CCSM4, eine aktualisierte Version von CCSM3, haben wir bereits im Part X – GCM IV dieser Reihe kennen gelernt). Der Idee dieser Studie ist es, ein paar Kernfragen zu beantworten. Eine davon lautet: Falls Änderungen der solaren Einstrahlung in hohen Breiten der Nordhemisphäre der Schlüssel zum Verständnis von Eiszeiten sind, warum hat sich dann die Südhemisphäre zuerst erwärmt? (Um diese Frage war es auch in Shakun et al. 2012 gegangen). Eine weitere Absicht dieses papers ist es, den tatsächlichen Temperaturanstieg während der jüngsten Deglaziation sowohl in der Nord- als auch in der Südhemisphäre nachzuvollziehen und zu simulieren.

Schauen wir mal.

Ihre erste Abbildung ist etwas schwierig zu lesen, aber die Essenz ist, dass blau das Modell mit ausschließlich orbitalem Antrieb (ORB) ist. Rot ist das Modell mit ALLEN Antrieben, und schwarz ist die Proxy-Rekonstruktion der Temperatur (an verschiedenen Stellen).


Bildinschrift: a. Einstrahlung am 21. Juni auf 60°N und atmosphärische CO2-Konzentration.. b. Eustatischer Meeresspiegel. Zeitfehler-Balken ± 2s.d. c. Schmelzwasserflüsse der Nordhemisphäre (NHMW) in Metern pro Anstieg des Meeresspiegels in 1000 Jahren. d. Verhältnis Pa/Th bei Bermuda als Proxy für den AMOC-Export und Modell-Maximum des AMOC-Transports (unter 500 m). Sv Sverdrup (…) e. Grönland-SAT auf der Grundlage des GISP2-Eisbohrkerns und aus Simulationen (Modell-Offset durch -4,5°C) f bis i Regionale Wassertemperaturen im Südatlantik (f), dem Indischen Ozean (g), dem Südpazifik (h) und dem Ozean der Südhemisphäre (i). J Regionale SAT über der Antarktis. In d bis j: Schwarz: Rekonstruktion, Rot: Simulation ALL, blau: Simulation ORB (10-Jahres-Mittel). LGM = letztes glaziales Maximum. (Aus He et al. 2013, Abbildung 2).

Wir können sehen, dass der orbitale Antrieb allein fast keinen Einfluss auf irgendeinen der Haupt-Temperatur-Parameter hat, und wir können sehen, dass es in Grönland und der Antarktis unterschiedliche Temperaturverläufe in dieser Periode gab.

• Wir können sehen, dass ihr ALL-Modell vernünftig gearbeitet hat bei der Rekonstruktion der wesentlichen Temperaturtrends.

• Wir können auch sehen, dass es kaum die Temperatur-Fluktuationen im Zeitmaßstab von Jahrhunderten bis zu einem Jahrtausend abbilden konnte, wenn diese auftraten.

Als Beleg folgt hier die Grönland-Aufzeichnung aus NGRIP von vor 20.000 bis 10.000 Jahren:



Abbildung 3: – NGRIP data

Wir erkennen, dass die Haupterwärmung in Grönland (zumindest an dieser Stelle in Nordgrönland) vor etwa 15.000 Jahren erfolgt ist, während die Antarktis schon vor 18.000 Jahren eine signifikante Erwärmung erfuhr (vergleiche Abbildung 1 aus Shakun et al.). Das paper zeigt im Grunde, dass es infolge von zwei separaten Effekten zwei wesentliche Temperaturtrends erfassen kann:

1. Die „Abkühlung“ in Grönland von vor 19.000 bis 17.000 Jahren mit einer Erwärmung der Antarktis im gleichen Zeitraum – wegen der MOC.

2. Die fortgesetzte Erwärmung von vor 17.000 bis 15.000 Jahren in beiden Regionen infolge von Treibhausgasen.

Man beachte, dass meine eigenen NGRIP-Daten und ihre GISP-Daten einen unterschiedlichen Temperaturtrend zeigen, und ich weiß nicht warum. Zum Verständnis dessen, was das Modell zeigt – diese Daten stammen aus ihren Ergänzungs-Daten, gefunden auf der Website von Nature: Vor 19.000 bis 17.000 Jahren gab es in der Antarktis (AN) eine signifikante Erwärmung, während es in Grönland (GI) zu einer größeren Abkühlung gekommen war von vor 17.300 und 16.700 Jahren.


Bildinschrift: Abbildung S25: genau wie Abbildung 59, nur diesmal mit Temperaturänderungen von vor 19.000 und 17.000 Jahren. SAT-Unterschiede und deren Unsicherheiten (eine Standardabweichung) werden abgeleitet von vor 17.300 bis 16.700 Jahren für 17.000 Jahre; vor 19.300 und 18.700 Jahren für 19.000 Jahre für Proxies und die Simulationen ALL, ORB und GHG sowie zwischen vor 19.000 und 18.400 Jahren für 19.000 Jahre für die Simulationen ICE, MOC und SUM. Alle Modellvariablen sind jährliche Mittelwerte (Abbildung 4).
Man beachte, dass die MOC (gelb) die Simulation ist, die die Änderung sowohl in GI als auch in AN erzeugt. (SUM sind die addierten Werte der individuellen Läufe, während ALL die Simulation mit der Kombination aller Treiber ist). Zweitens, vor 17.000 bis 15.000 Jahren setzt sich die Erwärmung in der Antarktis fort, und auch in Grönland wird es wärmer:

Bildinschrift: Abbildung S27: Wie Abbildung 59, jedoch für Temperaturänderungen von vor 17.000 bis 15.000 Jahren. SAT Differenzen und ihre Unsicherheiten (1 Standardabweichung) sind zwischen 17.300 und 16.700 Jahre vh. für 17.000 Jahre und für 14.700 für 15.000 Jahre abgeleitet. Alle Variablen wieder Jahresmittelwerte (Abbildung 5).

Man beachte, dass GHG (rosa) jetzt die Hauptursache für die Temperaturanstiege ist. Wir können die Temperaturtrends mit der Zeit als einen besseren Weg darstellen. Ich habe einige Anmerkungen hinzugefügt, weil das Layout sich mir nicht sofort erschlossen hat:

Bildinschrift: Abbildung 3: frühe deglaziale Erwärmung in Einzelantriebs-Transient-Simulationen. a-c. Grönland SAT (GISP2) (a), SHSST stack (b) und antarktischer SAT stack (c) in Simulation ORB. d-o, wie für a-c, aber für Simualtion ICE (d-f), GHC (g-i), MOC (j-l) und ALL/SUM (m-o). Alle Variablen in 10-Jahresmittel. Proxy reconstruktionen in schwarz. In a-l Simulationen in rot. In m-o Simulation ALL in rot und Simulation SUM in blau. LGM, Letztes glaziales Maximum (Abbildung 6).

Wie in Abbildung 1 können wir auch hier sehen, dass die Haupttrends ziemlich gut simuliert wurden, ohne das aber das Modell Variationen in kürzeren Zeiträumen erfassen konnte.

Die MOC kurz erklärt: Die MOC bringt warmes Oberflächen-Wasser aus den Tropen in hohe nördliche Breiten, die sich in der Folge erwärmen. Das kalte Wasser fließt in der Tiefe zurück, was eine wirklich große Zirkulation bildet. Wird diese Zirkulation gestört, fließt mehr warmes Wasser zur Antarktis und wärmt diese (Die Antarktis weist eine ähnliche großräumige Zirkulation von den Tropen an der Oberfläche und einem kalten Rückfluss in der Tiefe auf), während sich das Nordpolargebiet abkühlt. Man nennt dies die bipolare Wippe.

Wenn man ein extrem großes Fass Süßwasser in den hohen Breiten auskippt, verlangsamt sich die MOC oder kommt ganz zum Stillstand. Dies liegt an der geringeren Dichte des Süßwassers, das nicht absinken kann, was die Zirkulation verlangsamt. Kommt es also in hohen nördlichen Breiten zu massivem Abschmelzen, fließt Süßwasser in den Ozean, was die MOC verlangsamt und die hohen nördlichen Breiten abkühlt, während sich die Antarktis erwärmt. Das jedenfalls zeigen ihre Modelle. Die verfügbaren Daten hinsichtlich der MOC stützen diesen Gedanken; hier folgt Teil d aus ihrer Abbildung 1 – die schwarze Linie kennzeichnet die Proxy-Rekonstruktion:

 


Abbildung 7: Die Einheiten links sind Volumen-Raten des zwischen den Tropen und hohen nördlichen Breiten fließenden Wassers.

Was hat der orbitale Antrieb in den Modellen bewirkt?

Falls wir nochmals ihre Abbildung 1 (unsere Abbildung 2) betrachten, erkennen wir in nichts eine Änderung als Ergebnis der ORB-Simulation. Das Abstract scheint also etwas verwirrend zu sein, wenn ihre Studie zeigt, dass Einstrahlung, sprich die Milankovitch-Theorie, das ist, was die ganze Kette der Ereignisse auslöst. In ihrer Abbildung 2 zeigen sie eine geographische Ansicht der sommerlichen Temperaturänderungen in hohen Breiten und den Polargebieten als Ergebnis der ORB-Simulation. Die initiale Zunahme der Einstrahlung im Frühjahr und Sommer in den mittleren und hohen Breiten der Nordhemisphäre vor 22.000 und 19.000 Jahren war etwa dreimal so hoch wie in der Südhemisphäre (Abbildungen 2a und 2b). Außerdem führt die Abnahme der Oberflächen-Albedo durch das Schmelzen von Schnee auf dem Festland in der Nordhemisphäre zu zusätzlicher Gesamt-Absorption der Sonneneinstrahlung in der NH. Als Konsequenz werden die Sommer der Nordhemisphäre in der ORB-Simulation in der Arktis bis zu 2°C wärmer und bis zu 4°C wärmer in Eurasien, mit einem Gesamt-Mittelwert in der NH von 0,9°C in mittleren und hohen Breiten (Abbildungen 2c und 2e).

In ihrem Modell betrifft dies nicht Grönland (aus mir unverständlichen Gründen). Sie behaupten:

Unsere ORB-Simulation stützt folglich die Milankovitch-Theorie, zeigt sie doch, dass eine substantielle sommerliche Erwärmung in der NH zum Ende des Letzten Glazialen Maximums erfolgte als ein Ergebnis der größeren Einstrahlung im Frühjahr und Sommer in mittleren und hohen Breiten der NH sowie einer größeren Sensitivität der von Landmassen dominierten hohen nördlichen Breiten für den Antrieb durch Einstrahlung aus Schnee-Albedo-Rückkopplungen. Diese orbital induzierte Erwärmung löste möglicherweise den Rückzug der Eisschilde auf der NH aus und half, den Rückzug beizubehalten während des ältesten Dryas.

Analyse

1.Wenn wir die gleiche orbitale Simulation vor 104.000, 83.000 oder 67.000 Jahren laufen lassen (oder auch ein paar anderen Zeiten) – was würden wir bekommen? Hier folgen die Änderungen der Einstrahlung auf 60°N von vor 130.000 Jahren bis heute:


Abbildung 8.

Es ist keineswegs klar, was an dem Zeitraum von vor 21.000 bis 18.000 Jahren hinsichtlich der Einstrahlung so besonders ist. Es ist keine Überraschung, dass ein GCM einen lokalen Temperaturanstieg erzeugt, wenn lokal die Einstrahlung zunimmt.

2. Der in das Modell eingebrachte Schmelzwasser-Impuls ist nicht abgeleitet aus einer Berechnung irgendeiner Eisschmelze als Folge gestiegener Sommertemperaturen über Eisschilden, sondern ein künstlich angebrachter Antrieb. Unter der Bedingung, dass die Eisschmelze die MOC verlangsamt und daher die Temperatur in hohen Breiten abnimmt, sollte die MOC als eine negative Rückkopplung auf jedes Schmelzen von Schnee und Eis agieren.

3. Die Studie von Smith und Gregory (2012) [SG 2012], die wir in Teil IX besprochen haben, zeigt vielleicht andere Auswirkungen durch individuelle Antriebe als jene bei He et al. Weil der Zeitraum von vor 20.000 bis 15.000 Jahren bei Smith und Gregory etwas komprimiert ist, bin ich da nicht sicher. Man betrachte beispielsweise die Auswirkung allein auf Eisschilde während dieser Periode. Bei SG2012 zeigt sich ein deutlicher Effekt (gelb) über Grönland; bei He et al. zeigt sich gar nichts (Abbildung 6 oben)

 


Bildinschrift: Temperaturunterschiede in der Ostantarktis (oben) und Grönland (unten) zur präindustriellen Zeit (Aus Smith & Gregory 2012, Abbildung 9).

Schlussfolgerung

Es ist eine interessante Studie, die zeigt, dass Änderungen der großräumigen Meeresströme zwischen den Tropen und den Polen (die MOC) als Ursache für eine Abkühlung in Grönland und eine Erwärmung in der Antarktis in Frage kommt, was in etwa auf einer Linie mit den Proxy-Aufzeichnungen liegt. Die meisten Beweislinien zeigen, dass ein großräumiges Abschmelzen von Eis ein Faktor ist, der die MOC unterbricht.

Vielleicht waren es Änderungen der Einstrahlung in hohen Breiten, die vor etwa 20.000 Jahren zu einer massive Eisschmelze führten, was die MOC verlangsamte, was wiederum die Antarktis erwärmte, was (durch unbekannte Prozesse) zu einer starken CO2-Zunahme mit einer positiven Rückkopplung auf den Temperaturanstieg und damit dem Ende der letzten Eiszeit führte. Vielleicht nahm das CO2 gleichzeitig mit der Temperatur in der Antarktis zu (siehe den kurzen Abschnitt zur Studie von Parrenin et al. (2013) in Teil XI, was zu der Frage nach Ursache und Wirkung führt.

Um über Klima sinnvoll zu reden, müssen wir verstehen, warum:

a) höhere Einstrahlung in hohen Breiten zuvor nicht zur gleichen Abfolge der Ereignisse geführt hat

b) frühere Temperaturänderungen in der Antarktis nicht die gleiche Abfolge der Ereignisse ausgelöst haben

c)  die in der ORB-Simulation erzeugten Temperaturänderungen ausreichen, um genug Eis schmelzen zu lassen, um die MOC zu verändern (und welche Rückkopplungen dabei auftreten)

Und natürlich müssen wir verstehen, warum das CO2 zum Ende der letzten Eiszeit so stark zugenommen hat.

Link: http://scienceofdoom.com/2014/01/16/ghosts-of-climates-past-twelve-gcm-v-ice-age-termination/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/




Na sowas! Linke „Magazine“im WDR eifern gegeneinander

Fräck ju, Panorama!

Im öffentlich-rechtlichen Bezahlfernsehen geschah unlängst Unerhörtes. Zwei Politmagazine, zwischen die ideologisch normalerweise keine Telefonbuchseite passt, kabbelten sich über das so genannte Fracking. Beim Fracking handelt es sich um eine in den USA weit fortgeschrittene Technologie der Schiefergasgewinnung aus großen Tiefen. Sie hat dafür gesorgt, zusammen mit anderen Umständen, dass trotz des Chaos im Nahen Osten und in der Ukraine Öl und Gas derzeit nicht teurer, sondern etwas billiger werden. Daher gibt es gegen das Fracking erbitterten Widerstand aus der grünen Szene. In Deutschland, wo seit 1961 in geringem Umfang gefrackt wird, wollen Energiefirmen jetzt größere Gasmengen fördern. Das geht natürlich gar nicht.

Monitor und Frau Kemfert sagen uns wie es beim Fracking läuft. 
Sämtliche Umweltverbände und viele Medien spielen das Lied vom Tod. Verseuchtes Wasser, einstürzende Neu- und Altbauten, und aus dem Wasserhahn strömt Gas. Rumms! Bude platt. Und das alles wegen Fracking. Doch war es ausgerechnet das für gewöhnlich stramm rotgrüne NDR-Magazin „Panorama“, welches am 4. September einen 11-Minuten-Beitrag sendete, der die deutschen Fracking-Gegner auf die Palme brachte (in „Panorama – Die Reporter“ auf NDR III als halbstündige Version zu sehen). Der Autor stellte in seiner Sendung anhand von Expertenaussagen und Grafiken die meisten Argumente der Fracking-Gegner als wissenschaftlich unhaltbar dar. „Maßlos übertrieben“ würden die Risiken der Schiefergasgewinnung, so Panorama auf seiner Website.

Panorama Sendung vom 2.9.14 über das Fracking
Vor allem entzauberte Panorama den publikumswirksamsten Bluff der Antifracker. Denn das Gas, das im US-Frackinghorrorfilm „Gasland“ aus einem häuslichen Wasserhahn strömte und zur Explosion gebracht wurde, stammte mit großer Sicherheit aus oberfächennahen Erdschichten. Mit Fracking hatte das Ganze nichts zu tun. Panorama ließ sich einen ähnlichen Effekt an einem holländischen Fluss vorführen. Auch in dessen Wasser befinden sich leichtentzündbare Gase. Obwohl weit und breit nicht gefrackt wird.
Einen Monat später sendete das WDR-Magazin „Monitor“ eine Art Gegendarstellung zum Panorama-Bericht. „Es geht um den ganz großen Profit!“ warnte Monitor. Schließlich mische beim Fracking der Energiekonzern Exxon Mobil kräftig mit. Ja, wer denn sonst als ein Konzern, der in Energie macht? Einem Gutachter für das Umweltbundesamt, der bei Panorama die Risiken des Fracking für beherrschbar erklärt hatte, wurden im Monitor-Bericht angebliche frühere Verbindungen zur erdöl- und gasfördernden Industrie angekreidet. Ein Lobbyist also, untauglich als Zeuge?
Dumm nur, dass bei Monitor die allgegenwärtige Prof. Claudia Kemfert gegen Fracking in Stellung gebracht wurde. Eine Frau, die wie Jack aus der Box springt, sobald es gilt, „Erneuerbare Energien“ hochzureden. Kemfert erklärte erwartungsgemäß, man solle sich in Deutschland energiepolitisch doch lieber „auf andere Beine stellen.“ Wie die ausschauen, kann man auf der Homepage der Dame besichtigen. Die bestens vernetzte Frau Kemfert tanzt auf so ungefähr jeder Party, wo Lobbyarbeit für Wind- und Sonnenstrom gemacht wird. Selbstredend wurde sie in Monitor nicht als Lobbyistin vorgestellt, sondern als „führende Energieexpertin“. Soviel zum Stand des Kölner Recherchierjournalismus.
Der Monitor-Beitrag wurde von den Anti-Fracking-Aktivisten beglückt aufgenommen, waren doch durch Panorama hässliche Zweifel an ihren Parolen gesät worden. Besonders ärgerlich, weil die Berichte des NDR-Magazins in rotgrünen Milieus als sakrosankt gelten. Die Gegen-Bulle aus dem Hause WDR wird seit Wochen auf Websites und in den Netzwerken der Anti-Fracking-Front fleißig verlinkt und geteilt. Der Bruderkampf im Hause ARD befördert so nebenbei die Quote von zwei TV-Formaten, deren beste Zeiten längst passé sind.
Wovon in Monitor natürlich nicht die Rede war (übrigens auch bei Panorama nicht): Hinter den bundesweiten, gut geölten Stopp-Fracking-Kampagnen stehen nicht zuvörderst „spontan besorgte Bürger“, die fürchten, ihre Wasserleitungen könnten explodieren oder ihre Häuschen einstürzen. Diese aufrichtig Verängstigten bilden bloß die Barfußtruppen für grüne Ideologen und EEG-Absahner. Letztere rekrutieren geschulte Vortragsredner, die auf Bürgerversammlungen Stimmung gegen das Fracking machen.
„Gasland“, ein unterhaltsamer Agitprop-Streifen in der Tradition von Michael Moore, dient dabei als Türöffner. Der Film wird bei Protestmeetings rituell gezeigt; nie verfehlt er seine Wirkung. Die Legende vom Wasserhahn, aus dem dank Fracking Flammen schossen, ist einfach genial. Wenn es um clever geschürte Naturängste geht, ist Aufklärung sinnlos.
Ob im Fracking tatsächlich eine Chance liegt, Deutschland von Gasimporten unabhängiger zu machen? Darf man wohl bezweifeln. Das Land ist vergleichsweise klein. Überall gibt es Natur- und Wasserschutzgebiete. Wo wäre der Raum für eine Schiefergasrevolution wie in den USA?
Doch offenbar wähnt die Wind- und Solarindustrie ihre Pfründe schon durch den Versuch bedroht, ein paar fossile Quellen anzuzapfen. Der ökoindustrielle Komplex mag keine Konkurrenz, die billigere Energie verspricht. Auch für die grünen Politiker geht es um viel, nämlich um ihr Leuchtturmprojekt: Deutschland als Vorreiter der „Sanften Energien“, an denen die Welt genesen soll.
Für dieses Ziel muss jede Form von Energiegewinnung sabotiert werden, welche nicht auf subventionierten Windrädern, Solarpanelfeldern oder Maisgasfabriken basiert. Würde jemand morgen einen Plan vorlegen, wie man mit Hundescheiße energieautark werden könnte – auch der hätte prompt den Zorn leicht entflammbarer Wutbürger an der Backe.
„Stop Kacking“! Gründe werden sich schon finden.
http://www.ardmediathek.de/tv/Panorama-3/Das-schlechte-Image-von-Fracking/NDR-Fernsehen/Video?documentId=23268100&bcastId=14049184
http://www.youtube.com/watch?v=Bt1dkJGo8SY&sns=em 
http://www.claudiakemfert.de
&




Ozeanversauerung: Der böse kleine Bruder der Klimaerwärmung

Es handelt sich dabei um die nicht ganz unbekannte angebliche “Ozeanversauerung”, die vom AWI  in einer Pressemitteilung vom 8. Oktober 2014 zu einer neuen globalen Gefahr erhoben wurde wurde: einschließlich “dramatischer Auswirkungen” ,”Milliardenkosten” und die Behauptung, dass der pH-Wert heute 10mal schneller sinken würde als in der Vergangenheit. Kein Wort davon, dass die Ozeane tatsächlich keineswegs “sauer”, sondern mit pH-Werten zwischen 7,8 bis 8,1 eindeutig basisch sind. Das ist eine klare Verfälschung wissenschaftlicher Fakten (die Bürger werden es wohl schon nicht merken). Wenn überhaupt, dann handelt es sich objektiv gesehen um eine Verringerung der Alkalizität und hat mit einer “Versauerung” nichts zu tun, die erst unterhalb von 6,9 beginnen würde.
Abbildung rechts: CO2-Anteil in der Atmosphäre in den letzten 300 Millionen Jahren (Retallack) – ganz ohne anthropogenen Einfluss
Dabei ist die Behauptung der angeblichen pH-Wert-Reduzierung eine nicht minder unseriöse Behauptung. Denn es gibt kein globales pH-Messnetz, das es erlauben würde, eine solche Behauptung zu belegen. Lokale Messreihen zeigen eine Schwankung der pH-Werte um +/- 0,1 Punkte. Belegt ist jedoch die Tatsache, dass in der Erdgeschichte zu 90% der Zeit die CO2-Anteile in der Atmosphäre wesentlich höher waren als die bescheidenen 400 ppm von heute. Der Durchschnitt der letzten 300 Millionen Jahre lag bei 2000 ppm (siehe das Diagramm von Retallack, das auf der Veränderung der Stomata-Öffnungen von Gingko-Pflanzen basiert). Weder das wesentliche höhere CO2-Niveau der Erdgeschichte, noch die Maxima bis zu 6000 ppm haben eine “Versauerung der Ozeane” bewirkt.  Wenn die Behauptungen über einen schädlichen Einfluss auf die Korallen stimmen würden, hätten die Korallen schon vor vielen Millionen Jahren mehrfach aussterben müssen.

Wo sollte auch heute eine Versauerung herkommen? Es wird die CO2-Aufnahme von ca. 11 Gt CO2 (ein Drittel der anthropogenen Emissionen) in die Ozeane angenommen, aber ignoriert, dass mindestens die gleiche Menge (es gibt auch Schätzungen bis 20 Gt CO2 pro Jahr) als CaCO3 am Meeresboden abgelagert werden. Der komplette CO2-Kreislauf in den Ozeanen ist alles andere als bekannt: Grosse Mengen an CO2entstammen den hunderten von Unterwasser-Vulkanen entlang der tektonischen Plattengrenzen; ohne diesen Nachschub ist die Deckung des großen CO2-Bedarfs der Unterwasser-Vegetation (angeblich mehr als auf dem Festland) nicht vorstellbar. Die minimalen pH-Werte treten auch nicht etwa an der Oberfläche auf, wie dies bei einem atmosphärischen Einfluss der Fall sein müsste (und so im IPCC-Bericht fälschlicherweise angenommen), sondern in ca. 1000 m Tiefe.
An der Oberfläche werden die niedrigsten pH-Werte nur in den Bereichen gemessen, wo Tiefenströmungen an die Oberfläche kommen. Die CO2-Aufnahme aus der Atmosphäre, die angeblich eine “Versauerung” verursachen soll, muss auch im Zusammenhang mit der Gesamtmenge von etwa 39.000 Gt CO2 gesehen werden, die in den Ozeanen gelöst sind. Da sind ca. 11 Gt CO2 pro Jahr gerade einmal 0,028 % !  Da kann bereits der natürliche Einfluss der jährlichen ENSO-Aktivität und der Meeresströmungen mit Temperaturänderungen wesentlich größer sein.
Hoffen wir, dass der vom AWI gezeugte “kleine böse Bruder” bald wieder in der Versenkung verschwindet und die Forschung auf dem Gebiet der Ozeanforschung wieder seriös wird.
Der Beitrag erschien zuerst auf Die kalte Sonne hier