Deutschlands Experiment mit grüner Energie: eine vollkommene Katastrophe

Die Höhen und Tiefen der Energieerzeugung mit erneuerbaren Quellen in Deutschland führen zu großen Problemen für das deutsche Stromnetz. Um diese Volatilität auszugleichen, zahlt der selbsternannte grüne Führer der Welt seinen Einrichtungen Rekordsummen, um deren Beiträge in Echtzeit dem Bedarf des Landes anzupassen. Bloomberg berichtet:
Zwanzig Energieunternehmen, darunter die größten Versorger in Deutschland EON SE und RWE AG, bekommen inzwischen Ausgleichszahlungen, um innerhalb von Sekunden Elektrizität hinzuzufügen oder zu kappen, um das Energiesystem stabil zu halten, wobei sich die Summe im September verdoppelt hat. Dies geht aus Daten der vier Netzbetreiber des Landes hervor. Die Daten zeigen, dass Einrichtungen, die sich dem 800 Millionen Euro schweren Ausgleichsmarkt anschließen, bis zu 400 mal den Strom-Einkaufspreis gezahlt bekommen können.
Deutschlands Bestreben, die Energieerzeugung durch Erneuerbare bis zum Jahr 2035 zu verdoppeln, hat einem Betreiber zufolge dazu geführt, dass fünfmal so oft wie vor vier Jahren Störungen ausgeglichen werden mussten, was das Risiko von Stromausfällen in Europas größtem Strommarkt steigen lässt, während die Strom-Einkaufspreise auf ein Neun-Jahres-Tief fallen. Mehr Dienstleister treten dem Ausgleichsmarkt bei, da niedrige Preise die Umsatzrenditen im Mittel auf 5% haben sinken lassen; im Jahre 2004 waren es noch 15%. RWE hat zum ersten Mal in seiner Firmengeschichte seit 1949 einen Jahresverlust einräumen müssen.
Deutschlands Experiment mit grüner Energie war eine Katastrophe. Um die Entwicklung von Wind- und Solarenergie voranzutreiben, musste das Land den Erzeugern über dem Marktniveau liegende Preise garantieren, und die Kosten dieser Garantien – Einspeisetarife genannt – mussten weitergereicht werden an die Verbraucher in Gestalt von grünen Aufschlägen zu ihren Stromrechnungen. Das ist schlecht für Deutschlands Industrie, so dass viele Geschäftsbereiche bereits nach Produktionsstätten zu billigeren Preisen anderswo Ausschau halten (z. B. in das schiefergasreiche Amerika).
Aber noch sind wir nicht fertig mit der Litanei der Fehler im Namen von Berlins Energiewende*. Gleichlaufend mit der Stärkung erneuerbarer Energiequellen will Deutschland auch seine Kernreaktoren aus dem Energiemix entfernen, das heißt, man will eine Null-Kohlenstoff- und zuverlässige Quelle grundlastfähigen Stromes beseitigen, nur aus emotional geschürter Angst vor einer Kernschmelze in der Folge des Fukushima-Unfalls. Um die Kernkraft zu ersetzen, verbrennt Deutschland heute mehr Kohle als je zuvor während der letzten beiden Jahrzehnte, was kaum eine stolze Errungenschaft der so genannten grünen Energierevolution ist.
[*Auch in diesem Beitrag steht das Wort energiewende so kursiv gesetzt im Original]
Und wie uns die heutigen Verhältnisse zeigen, gibt es ein weiteres Hindernis, dass die deutsche grüne Energiepolitik unfähig zu überwinden scheint: Unberechenbarkeit. Solarpaneele und Windturbinen können nur Strom erzeugen, wenn die Sonne scheint und der Wind weht [und das muss er auch noch in der richtigen Stärke. Anm. d. Übers.]. Und ohne kosteneffektive Speichermöglichkeiten in großem Stil bedeutet das, dass man sich nur bei geeigneten Bedingungen auf Erneuerbare verlassen kann. Für die Versorgung mit grundlastfähigem Strom ist Berlin immer noch abhängig von fossilen Treibstoffen. Aber die fortwährenden abwechselnd fallenden und stark steigenden Beiträge der erneuerbaren Energie in das nationale Energienetz in Deutschland verlangt seinen Zoll, und die Versorger werden erheblich belohnt für ihr „Ausbalancieren“ des Energienetzwerkes.
Die Grünen lieben es, effiziente und nachhaltige Lösungen zu befürworten, besonders wenn es um Energie geht. Und doch scheinen sie blind und taub gegenüber der Ironie zu sein, wenn sie Deutschlands Energiewende als eine grüne Erfolgsstory hochhalten, obwohl sie das in Wirklichkeit ganz und gar nicht ist.
Die ganze Geschichte, in der aber lediglich noch zwei Sätze am Ende zusätzlich stehen, findet man hier.
Link: http://www.thegwpf.org/germanys-green-energy-experiment-an-unmitigated-catastrophe/
Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Das Rätsel der Eiszeiten, Teil 10, Global Circulation Models IV

scienceofdoom

Im Teil neun haben wir über eine GCM-Simulation der letzten 120.000 Jahre gesprochen, ein ziemlich ambitioniertes Projekt, das einige gemischte Ergebnisse zeitigte. Die größte Herausforderung ist einfach, ein ganzes GCM über eine so lange Zeit laufen zu lassen. Um das zu tun, hatte das Modell eine reduzierte räumliche Auflösung. Außerdem wurden alle Antriebe „beschleunigt“, so dass die Modellzeit tatsächlich über 1200 Jahre lief. Unter den Antrieben waren Größe, Ort und Höhe des Eisschildes ebenso wie Treibhausgase in der Atmosphäre. In der Realität handelt es sich dabei um Rückkopplungen, aber GCMs sind derzeit nicht in der Lage, diese zu erzeugen.

In diesem Beitrag betrachten wir eines der jüngsten GCMs, das jedoch nur über einen „Schnappschuss“-Zeitraum von 700 Jahren läuft. Das erlaubt die volle räumliche Auflösung, hat aber den Nachteil, dass ein vollständiger Eiszeit-Zyklus nicht einmal annähernd abgedeckt werden kann. Ziel dieses Artikels ist es, das Modell mit den orbitalen Bedingungen von vor 116.000 Jahren laufen zu lassen um zu sehen, ob sich eine permanente Schneedecke an den richtigen Stellen bildet. Dies ist ein Projekt ähnlich denen, die wir in Teil VII – GCM I (frühe GCMs) und Teil VIII – GCM II (GCMs vor einem Jahrzehnt) besprochen haben.

Die Studie kam zu einigen sehr interessanten Ergebnissen hinsichtlich der Rückkopplungen, die wir noch betrachten werden.

Jochum et al (2012)

Das Problem:

Modelle mittlerer Komplexität sowie flussbereinigte GCMs waren typischerweise in der Lage, eine Verbindung zwischen orbitalem Antrieb, Temperatur und Schneemenge zu simulieren. Bislang jedoch haben es vollständig gekoppelte, nicht flusskorrigierte, auf primitiven Gleichungen basierende Klimamodelle nicht vermocht, die Auslösung einer Eiszeit zu reproduzieren, ebenso wie die Abkühlung und Zunahme von Schnee- und Eisbedeckung, die von den warmen Zwischeneiszeiten zu den kalten eiszeitlichen Perioden überleiten.

Milankovitch (1941) postulierte, dass der Antreiber für diese Abkühlung die orbital bedingte Reduktion der Einstrahlung auf der sommerlichen Nordhalbkugel sei und die daraus folgende Zunahme permanenter Schneebedeckung. Die verstärkte permanente Schneebedeckung und seine positive Albedo-Rückkopplung sind natürlich nur Vorboten des Wachstums von Eisschilden. Das Scheitern der GCMs, die Auslösung der Eiszeiten nachzuvollziehen, zeigt ein Scheitern entweder der GCMs oder der Milankovitch-Hypothese.

Falls die Hypothese die Schuldige wäre, würde man sich natürlich fragen, ob das Klima in den GCMs überhaupt angemessen abgebildet werden kann. Wie auch immer, es scheint, als ob die Reproduktion der beobachteten Änderungen zwischen Eiszeit und Zwischeneiszeit hinsichtlich der Eismenge und der Temperatur einen guten Test darstellt, um die Genauigkeit einiger Schlüssel-Rückkopplungen zu evaluieren, die für Klimaprojektionen relevant sind.

Die potentiellen Gründe des Unvermögens der GCMs, die Auslösung der Eiszeit zu reproduzieren, sind vielfältig und reichen von der Numerik der GCMs bis zu vernachlässigten Rückkopplungen von Festlands-, atmosphärischen oder ozeanischen Prozessen auf der Theorie-Seite. Es ist allerdings ermutigend, dass es bei einigen GCMs nur geringer Modifikationen bedarf, damit diese eine Zunahme permanenter Schneebedeckung erzeugen (z. B. Dong und Valdes 1995). Nichtsdestotrotz muss es das Ziel der GCM-Gemeinde sein, das Auftreten zunehmender permanenter Schneebedeckung mit einem GCM zu erzeugen, das an das heutige Klima angepasst ist und ausschließlich Gegenstand von Änderungen des orbitalen Antriebs ist.

Ihr Modell:

Die numerischen Experimente wurden durchgeführt unter Verwendung der jüngsten Version des National Center for Atmospheric Research (NCAR) CCSM4, welches vollständig gekoppelte Atmosphären-, Ozean-, Festlands- und Meereismodelle enthält. CCSM4 ist ein hypermodernes Klimamodell, das in vieler Hinsicht Verbesserungen seines Vorgängers CCSM3 enthält. In unserem Zusammenhang hier besteht die wichtigste Verbesserung in der höheren atmosphärischen Auflösung, weil diese uns gestattet, die Höhe und die Schneebedeckung des Festlandes genauer zu repräsentieren.

Siehe Anmerkung 1 für einige weitere Modell-Einzelheiten aus der Studie. Und lange Zeit haben wir einige Grundlagen von CCSM3 betrachtet – Models, On – and Off – the Catwalk – Part Two. Grenzen des Modells – kein die Eisschilde betreffendes Modul (anders als das FAMOUS-Modell in Teil neun):

Das CCSM enthält immer noch nicht ein Eisschilde-Modul. Darum verwenden wir die Akkumulation von Schnee als das Hauptargument des Auslöse-Szenarios. Die Akkumulation von Schnee auf dem Festland wird berechnet aus der Summe von Schneefall, gefrierendem Regen, Schneeschmelze und dem Entfernen exzessiven Schnees. Exzessiver Schnee wird definiert als eine Schneemenge, die über 1 Meter Wasseräquivalent hinausgeht, also etwa 3 bis 5 m Schnee.

Das Entfernen des exzessiven Schnees ist eine sehr grobe Parametrisierung des Kalbens von Eisbergen, und zusammen mit dem Schmelzwasser wird exzessiver Schnee an das Netzwerk der Flüsse geliefert und eventuell den küstennahen Oberflächen-Gewässern der angrenzenden Ozean-Gitterpunkte zugefügt. Folglich werden die lokale Größe des Eisschildes und das globale Frischwasser-Volumen konserviert.

Probleme des Modells:

Eine weitere Bias, die für diese Diskussion relevant ist, ist die Temperatur auf dem Festland in hohen nördlichen Breiten. Wie im nächsten Abschnitt beschrieben wird, ist eine Menge der CCSM4-Reaktion auf orbitale Antriebe der reduzierten Schneeschmelze im Sommer geschuldet. Eine Kalt-Bias bei der Kontrolle wird es wahrscheinlicher machen, die Sommertemperatur unter dem Gefrierpunkt zu halten, so dass die Schnee-Akkumulation des Modells überschätzt wird. Im jährlichen Mittel sind Nordsibirien und Nordkanada um etwa 1°C bis 2°C zu kalt, Baffin-Insel sogar um etwa 5°C zu kalt (Gent et al. 2011). Die sibirischen Bias sind nicht so dramatisch, aber es ist ziemlich unglücklich, dass die Baffin-Insel, das Zentrum des Laurentide-Eisschildes, eine der stärksten Temperaturbias im CCSM4 aufweist. Ein genauerer Blick auf die Temperaturbias in Nordamerika zeigt jedoch, dass die Kalt-Bias dominiert wird von Bias im Herbst und Winter, während die Baffin-Insel im Frühjahr und Sommer um etwa 3°C zu kalt ist und der kanadische Archipel sogar eine geringe Warm-Bias aufweist.

Ihr Plan:

Die nachfolgenden Abschnitte werden zwei unterschiedliche Simulationen analysieren und vergleichen: einen Kontroll-Lauf 1850 (CONT), in welchem die orbitalen Parameter der Erde auf die Werte im Jahre 1900 gesetzt werden und die atmosphärische Zusammensetzung bei den Werten des Jahres 1850; und eine Simulation identisch mit CONT mit Ausnahme der orbitalen Parameter, die auf die Werte von vor 115.000 Jahren (OP115) gesetzt werden. Die atmosphärische CO2-Konzentration in beiden Experimenten beträgt 285 ppm.

Die Modelle wurden über 700 (simulierte) Jahre laufen gelassen. Dann folgen einige interessante Bemerkungen, warum sie keine Simulation über 120.000 Jahre durchführen können: Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell seit der letzten Zwischeneiszeit vor etwa 126.000 Jahren integrieren, für 10.000 Jahre in die Eiszeit mit sich langsam änderndem orbitalen Antrieb. Allerdings ist das nicht machbar; eine Integration über 100 Jahre CCSM auf den NCAR-Supercomputern würde etwa einen Monat dauern und einen substantiellen Teil der Computerbelegung der Klimagruppe beanspruchen.

Ergebnisse

Zunächst erzeugen sie in der Tat eine permanente Schneebedeckung in hohen Breiten. Die Studie bietet eine sehr gute Erklärung, wie die unterschiedlichen Klimafaktoren in hohen Breiten zusammenspielen, wo wir nach dem Einsetzen permanenter Schneebedeckung suchen. Es hilft uns zu verstehen, warum grundlegende Energiebilanzmodelle und selbst Modelläufe zwischenzeitlicher Komplexität (EMICs) keine zuverlässigen brauchbaren Antworten liefern können. Schauen wir mal:

 

Bildunterschrift: Abb. 2: Differenz des zonal gemittelten Flusses an der Obergrenze der Atmosphäre (OP115 vs. CONT). Schwarz: Einstrahlung. Blau: Einstrahlung mal Albedo aus CONT. Rot: Gesamt-Kurzwellenstrahlung bei klarem Himmel. Grün: Gesamt-Kurzwellenstrahlung (Jochum et al 2012)

Die Graphik vergleicht die jährliche Sonneneinstrahlung pro Breitenkreis von 115.000 Jahren und heute. Man beachte den zentralen Punkt: Die einfallende Sonnenstrahlung – also die schwarze Kurve – war an den Tropen höher, während die jährliche Einstrahlung in hohen Breiten niedriger war.

Konzentrieren wollen wir uns auf die Nordhemisphäre nördlich von 60°N, welche die Gebiete großräumiger Abkühlung und zunehmender Schneebedeckung überdeckt. Verglichen mit CONT ist die jährliche mittlere Einstrahlung über dieser Arktischen Domäne in OP115 geringer bei 4,3 W/m² (schwarze Linie), aber die hohe Albedo reduziert diesen Unterschied an der Obergrenze der Atmosphäre auf nur 1,9 W/m² (blaue Linie, siehe auch Tabelle 1).

In blau wird das Ergebnis gezeigt, wenn wir die bestehende Albedo berücksichtigen – das heißt, weil eine Menge Solarstrahlung schon in hohen Breiten reflektiert wird, werden sämtliche Änderungen der einfallenden Strahlung durch den Albedo-Effekt reduziert (bevor sich die Albedo selbst ändert). In grün wird das Ergebnis gezeigt, wenn wir die veränderte Albedo der größeren Schneebedeckung von 115.000 Jahren berücksichtigen.

Im CCSM4 führt diese größere Albedo im OP115 zu einer Kurzwellenstrahlung an der Obergrenze der Atmosphäre bei klarem Himmel, die um 8,6 W/m² geringer ist als im CONT – das ist 4 mal das ursprüngliche Signal. Die Schnee/Eis-Albedo-Rückkopplung wird dann berechnet mit 6,7 W/m² (8,6 bis 1,9 W/m²). Interessanterweise ist die Bedeckung mit tiefen Wolken im OP115 kleiner als im CONT, was die Differenz der Gesamt-Kurzwellenstrahlung an der Obergrenze der Atmosphäre um 3,1 bis 5,5 W/m² reduziert (grüne Linie). Zusammengefasst: ein Initial-Antrieb von 1,9 W/m² nördlich von 60°N wird um 6,7 W/m² verstärkt durch die Schnee/eis-Albedo-Rückkopplung und reduziert durch eine negative Wolken-Rückkopplung um 3,1 W/m².

Die zusammenfassende Tabelle:

 

Wegen der größeren meridionalen Temperatur- (Abbildung 1a) und Feuchtigkeits-Gradienten (Abbildung 4a) nimmt der atmosphärische Quer-Wärmefluss in die Arktis zu von 2,88 auf 3,0 PW. Dieser Unterschied von 0,12 PW bedeutet für die Arktis ein Mittel von 3,1 W/m²; das ist eine negative Rückkopplung, die genauso groß ist wie die Wolken-Rückkopplung und die 6 mal größer ist als die Zunahme des meridionalen Wärmetransportes im Ozean bei 60°N (nächster Abschnitt). Folglich kompensieren sich die negative Wolken-Rückkopplung und der meridionale Wärmetransport für die positive Rückkopplung fast vollständig. Übrig bleibt eine Gesamt-Rückkopplung von nur 0,5 W/m². Eine Möglichkeit, diese Rückkopplungen zu betrachten ist, dass das Klimasystem ziemlich stabil ist, wobei Wolken und meridionale Transporte den Einfluss von Albedo-Änderungen begrenzen. Dies könnte erklären, warum einige numerische Modelle Schwierigkeiten haben, die beobachtete Abkühlung in Verbindung mit dem orbitalen Antrieb zu erzeugen.

Ich glaube es ist wichtig zu beachten, dass sie ihre Ergebnisse durch einen unterschiedlichen Mechanismus zu einer der Studien bekommen, die wir in Teil 9 begutachtet haben:

Folglich ist die Zunahme von Schneefall im Gegensatz zu den Ergebnissen von Vetterotti und Peltier (2003) vernachlässigbar im Vergleich zur reduzierten Schneeschmelze.

Ihr Ergebnis:

Die globale Gesamt-Differenz hinsichtlich Schmelzen und Schneefall zwischen OP115 und CONT führt zu einer impliziten Schnee-Akkumulation, die äquivalent ist mit einem Rückgang des Meeresspiegels um 20 m innerhalb von 10.000 Jahren, einiges davon der Kaltverzerrung der Baffin-Insel geschuldet. Das ist weniger als die 50-m-Schätzung, die auf Rekonstruktionen des Meeresspiegels zwischen heute und vor 115.000 Jahren basiert, aber unabhängig davon zeigt sich, dass das Modell die richtige Größenordnung wiedergibt.

Atlantic Meridional Overturning Current (AMOC)

Diese Strömung hat enormen Einfluss auf die höheren Breiten im Atlantik, weil sie wärmeres Wasser aus den Tropen transportiert.

Der meridionale Wärmetransport der AMOC ist eine wesentliche Wärmequelle für den nördlichen Nordatlantik, aber man glaubt auch, dass er für kleine Störungen anfällig ist. Daraus ergibt sich die Möglichkeit, dass die AMOC den orbitalen Antrieb verstärkt oder sogar, dass diese Verstärkung für Vereisungen und Terminierungen der Nordhemisphäre notwendig ist. Tatsächlich zeigt JPML, dass eine Änderung des orbitalen Antriebs in mindestens einem GCM zu einer Abschwächung der MOC führen kann und zu einer daraus folgenden großräumigen Abkühlung der Nordhemisphäre. Hier beleuchten wir den Zusammenhang zwischen orbitalem Antrieb und Stärke der AMOC mit dem CCSM4, welches verbesserte Physik und eine höhere räumliche Auflösung als JPML aufweist.

Im Wesentlichen fanden sie eine begrenzte Änderung der AMOC in dieser Studie. Interessierte Leser können die Studie gerne einsehen. Dies ist ein wichtiges Ergebnis, weil frühere Studien mit geringerer Auflösung oder mit GCMs, die nicht vollständig gekoppelt sind, oftmals eine starke Rolle der MOC bei sich verstärkenden Änderungen gefunden hatten.

 Schlussfolgerung

Dies ist eine interessante Studie. Sie ist wichtig, weil sie ein hypermodernes GCM verwendet, um permanente Schneebedeckung von 115.000 Jahren zu simulieren, einfach mit vorindustriellen Treibhausgas-Konzentrationen und Einstrahlungsbedingungen vor 115.000 Jahren. Das Modell weist eine Kalt-Bias auf (und eine verstärkte Feuchte-Bias) in hohen Breiten der Nordhemisphäre. Dadurch erhebt sich die Frage nach der Signifikanz des Ergebnisses (für meinen skeptischen Verstand):

• Kann ein hoch auflösendes AO-GCM ohne Kalt-Bias in hohen Breiten eine permanente Schneebedeckung nur mit vorindustriellen Werten der Treibhausgas-Konzentration und orbitalem Antrieb vor 115.000 Jahren erzeugen?

• Kann dieses Modell mit dieser Kalt-Bias in hohen Breiten das Ende einer Vereisung reproduzieren?

Das heißt nicht, dass die Studie nicht sehr wertvoll ist, und die Autoren haben sicher nicht versucht, die Schwächen des Modells zu übergehen – tatsächlich haben sie diese sogar noch unterstrichen. Was die Studie ebenfalls zeigt – und was wir auch in früheren Artikeln gesehen haben – ist: wenn wir uns durch Generationen und Komplexitäten der Modelle wühlen, können wir Erfolg haben; dann scheitert ein besseres Modell, dann führt ein noch besseres Modell wieder zum Erfolg. Auch haben wir angemerkt, während das (ebenfalls kalt-bias) Modell von Vetterotti und Peltier (2003) eine permanente Schneebedeckung durch verstärkte Feuchtetransporte in  kritische Gebiete gefunden hatte (was sie als einen „Rückkopplungs-Mechanismus zwischen Atmosphäre und Cryosphäre“ bezeichnen), hat eine jüngere Studie mit einem verbesserten Modell keine Zunahme der Feuchtetransporte gefunden.

Die Details, wie unterschiedliche Modelle zum gleichen Ergebnis kommen, sind wichtig. Ich glaube nicht, dass irgendein Klimawissenschaftler dies anders sieht, aber es bedeutet, dass viele Studien mit „Erfolg“ nicht „Erfolg für alle“ bedeuten und nicht für einen „allgemeinen Erfolg“ stehen können. Die Details müssen untersucht werden.

Diese Studie aus dem Jahr 2012 zeigt die Bedeutung aller (derzeit bekannten) Rückkopplungen – eine Zunahme der Albedo durch verstärke Schneedeckenbildung wird fast vollständig durch negative Rückkopplungen  ausgebremst. Und schließlich zeigt die Studie auch, dass ihr Modelllauf über 700 Jahre  nicht die signifikante Abkühlung der Südpolarregion erzeugen kann:

Noch wichtiger ist jedoch das Fehlen jedweder Reaktion im Polargebiet der Südhalbkugel, die erforderlich sind, um Abbildung 1 zu erklären. Während Petit et al. 1999 zeigen, dass sich die Antarktis zu Beginn der letzten Eiszeit um 10°C abgekühlt hat, zeigt eine jüngere hoch aufgelöste Analyse von Jouzel et al. 2007, dass es nur wenig kälter war als heute (weniger als 3°C beim European Project for Ice Coring in Antarctica (EPICA), Stelle Dome C auf dem Antarktischen Plateau). Natürlich gibt es substantielle Unsicherheiten bei der Rekonstruktion der antarktischen Temperaturen.

Ich habe keinerlei Kommentare zu diesem speziellen Punkt, weil mir das Verständnis der jüngsten Arbeiten hinsichtlich Datierung und Korrelation mit EPICA fehlen (Eisbohrkerne aus Grönland und der Antarktis).

 

References

True to Milankovitch: Glacial Inception in the New Community Climate System Model, Jochum, Jahn, Peacock, Bailey, Fasullo, Kay, Levis & Otto-Bliesner, Journal of Climate (2012) – free paper

Notes

Anmerkung 1 – mehr zum Modell:

Die ozeanische Komponente hat eine horizontale Auflösung, die bei den Längengraden konstant 1,125° beträgt und hinsichtlich der Breite von 0,27° am Äquator bis etwa 0,7° in hohen Breiten reicht. In der Vertikalen gibt es 60 Schichten; die höchste Schicht hat eine Dicke von 10 m und die unterste Schicht eine solche von 250 m. Die atmosphärische Komponente verwendet eine horizontale Auflösung von 0,9° X 1,25° mit 26 Schichten in der Vertikalen. Das Meereis-Modell hat das gleiche horizontale Gitternetz wie das Ozean-Modell, und das Festlands-Modell hat das gleiche horizontale Gitternetz wie das atmosphärische Modell.

Link: http://scienceofdoom.com/2014/01/03/ghosts-of-climates-past-part-ten-gcm-iv/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/




Nachhaltige – d.h. endlose- Endlagersuche! Ein Erfahrungsbericht

Jeder Teilnehmer der gut besuchten Veranstaltung konnte sich in den drei Stunden zu Wort melden und den Hauptakteuren Fragen stellen. Diese agierten quasi auf einer Bühne, obwohl es tatsächlich in dem Saal keine Erhöhung gab.
Wer beantwortete die Fragen des Publikums? Geologen, Bergingenieure, Geochemiker, Physiker, Strahlenbiologen? Nein, solche Leute sind offenbar nicht glaubwürdig.

Die Akteure waren:

Stefan Wenzel, Niedersächsischer Umweltminister (Agrarökonom)
Sophie Kuppler (Sozialwissenschaftlerin)
Ralf Meister, evangelischer Landesbischof (Theologe)
Marc André Wiegand, Regierungsdirektor (Jurist)
Es moderierte Asta von Oppen, ehemalige Lehrerin
Allein der Jurist, Herr Dr. Wiegand, hielt einen seinem Fach entsprechenden Vortrag, nämlich über Gesetzgebungsverfahren. Unter anderem wies er darauf hin: Wenn man sich einigt, sind gar keine Gesetze nötig; diese braucht man, wenn es keinen Konsens gibt.
Herr Wenzel sprach in seiner Einführung in die Veranstaltung über die Vorteile der Einbeziehung möglichst vieler Betroffener; ein Verfahren, welches es ansatzweise schon in vordemokratischer Zeit gegeben hätte.
Beim Vortrag von Herrn Meister fühlte man sich ins Altertum versetzt, als es noch kaum naturwissenschaftliche Erkenntnisse gab und man über das Atom nur spekulieren konnte. Es gäbe keine Wahrheiten, nur Standpunkte, die man auch selbst immer wieder in Frage stellen müsste. Vielleicht hätte er zu den griechischen Philosophen gepasst. 

Sokrates, der alte Greis,

Sagte oft in tiefen Sorgen:

„Ach, wie viel ist doch verborgen,

Was man immer noch nicht weiß.“

(W. Busch)

Meinen Einwand, es gäbe doch gesicherte Erkenntnisse über Strahlenwirkungen, über die keine Diskussion mehr möglich ist, ließ er nicht gelten. Als ich noch hinzufügte, aufgrund der Ergebnisse von 100 Jahren strahlenbiologischer Forschung wären in Fukushima keine Gesundheitsschäden zu erwarten, erhob sich unter dem Publikum ein Sturm der Entrüstung. Ein Teilnehmer verlangte, die Moderatorin sollte mir das Wort entziehen, was sie aber nicht tat. 
Am Schluss der Veranstaltung zeigte sich, dass doch nicht nur Kernkraftgegner anwesend waren; ich wurde von einigen lobend angesprochen. Diese waren auch der Meinung, das ganze Verfahren würde nie zu einem Endlager führen.
Sonst gab es große Einigkeit. Im wesentlichen sprachen in der Diskussion Vertreter der verschiedenen Öko- und Antigruppen; das Wohlwollen des Publikums war ihnen sicher. Einer beklagte, dass aufgrund mangelhafter Ausstattung man gegenüber Institutionen sehr im Nachteil wäre; offenbar möchte der Mann Geld vom Staat bekommen.
Ein wenig Ärger machte ein Geologe, welcher die allzu laienhafte Darstellung einer Vertreterin der Asse-Begleitgruppe kritisierte. Außerdem erregte es Missfallen, dass ein ehemaliger Ministerialbeamter versuchte, die abenteuerliche Darstellung eines anderen Anti-Menschen zu widerlegen: Man hätte zu Gorleben amtlich erklärt, der Salzstock reiche nicht bis unter die DDR. 
Sonst ging alles sehr friedlich zu, Angriffe gegen die böse Atomindustrie und dergleichen fehlten ganz. Lediglich eine Vertreterin der IPPNW (Internationale Ärzte gegen Atomkrieg) verlangte die Stilllegung der Anreicherungsanlage URENCO.
Herr Wenzel betonte dann auch in seinem Schlusswort, wie schön es doch wäre, dass Menschen unterschiedlicher Ansichten so friedlich diskutieren und einander zuhören könnten. Natürlich wäre noch nicht viel erreicht, man müsste dies Verfahren der Öffentlichkeitsbeteiligung intensiv weitertreiben.




Die Qualität der FAZ-Berichterstattung im freien Fall

Gewählt sei diesmal die Form des Leserbriefs. Mit Leserbriefen an die FAZ macht man so seine Erfahrungen, meistens werden sie nicht veröffentlicht. In diesem Fall habe ich mich entschlossen etwas anders vorzugehen, damit die Kritik in meinem Leserbrief nicht völlig beiseite geschoben werden kann (EIKE hat eine Besucherzahl, die auch im Vergleich mit der der FAZ nicht verschwindend ist). Der Leserbrief ist abgeschickt worden und wird hier nachfolgend unverändert wiedergegeben. Einziger Unterschied ist eine zusätzliche kurze Literaturübersicht zum Inhalt. Damit wird der FAZ sozusagen die letzte Chance gegeben zu zeigen, dass noch rudimentäre Überreste eines kritischen Journalismus in ihr stecken – falls sie nämlich die Kritik abdruckt. Man darf vorsichtig pessimistisch sein.
Nun mein Leserbrief auf den Artikel von Andreas Mihm, der kaum ein Detail des üblichen Alarmisten-Sermons auslässt. Es ist unnötig, hierauf im Detail einzugehen, alles ist zumindest EIKE-Lesern hinreichend bekannt. Da Leserbriefe an Zeitungen nicht zu lang sein dürfen, konnten von mir natürlich nur die wichtigsten Punkte angesprochen werden:

Leserbrief „Klima-ALarm“, FAZ vom 29.Juli 2014

Heute fand ich ein Werbeexemplar der FAZ im Briefkasten, darin enthalten der Beitrag KLIMA-ALARM von Andreas Mihm. Er schreibt: „Der vergangene Monat war der wärmste Juni seit Beginn der Temperaturaufzeichnungen“. Das ist grob falsch. Die längste Thermometerreihe weltweit ist die „Mittelenglische Reihe“, die bis 1659 zurückreicht. Sie wird im Internet vom MET Office Center (GB) in Form von Monatsmittelwerten zur Verfügung gestellt, der Juni-Wert von 2014 ist 15,1 °C. Davor liegen sage und schreibe 83 höhere Juniwerte, das Jahr 1846 mit 18,2 °C führt diese Vorgänger an. Die Aussage „es gibt einen gefährlichen Temperaturanstieg“ ist nicht mit den jahrzehntelangen meteorologischen Messdaten vereinbar. Aber auch die weiteren Ausführungen von Mihm sind sachlich falsch. Die globale Mitteltemperatur steigt keineswegs seit Jahren in kleinen Schritten, sondern stagniert seit 1998. Extremwetter haben nicht zugenommen, das bestätigt sogar das wohl unverdächtige IPCC in Kap. 2.7 seines Sachstandsberichts von 2001 sowie in seinem speziellen Extremwetterbericht (SREX) von 2012.
Dass Versicherungen größer werdende  Schäden auflisten, verantworten nicht die Natur sondern steigende Sachwerte und die Tatsache, dass bei schwindenden Bauplätzen zunehmend in gefährdete Gebiete (Überschwemmungen, Erdrutsche, Lawinen) ausgewichen wird. All diese Fakten sind den von Mihm angeklagten „schlechten“ Vorbildländern Australien, Kanada und Japan wohlbekannt. Diese sind freilich keine „Klimasünder“ sondern Realisten. Sie nehmen zur Kenntnis, dass bis heute eine begutachtete wissenschaftliche Fachveröffentlichung, die einen anthropogenen Einfluss auf Klimawerte stringent nachweisen kann, immer noch auf sich warten lässt. Dass all dies an Herrn Mihm spurlos vorbeiging, ist wohl nur mit grünideologischem Tunnelblick und komplett verweigerter Recherche zu erklären. Ein ehemaliges Qualitätsperiodikum wie die FAZ sei daran erinnert, dass grobe sachliche Falschinformation nicht geeignet ist, die dringend benötigten neuen Leser zu gewinnen.
Literaturnachweise
1) Central England Temperatures (CET), hierhier
2) IPCC Sachstandsbericht 2001, hier
3) IPCC Extremwetterbericht 2012, hier
Für Leser, die sich näher informieren, mit den Daten herumspielen oder Grafiken erstellen möchten, habe ich den txt-File der CET-Reihe in EXCEL umgewandelt und hier beigefügt. Viel Vergnügen!
Anmerkung der EIKE-Redaktion: Der Artikel ist unter einer geänderten Überschrift jetzt auch im Internet verfügbar (hier). Man beachte die Leserkommentare! Ein wirkungsvolleres Selbstmordprogramm als das der FAZ ist schwer vorstellbar.
Admin

Related Files




Zum ersten Mal wurde ein mysteriöser Kerbfilter* beim Klima gefunden

[*Ein Kerbfilter {Englisch Notch Filter} ist in der Elektrotechnik eine scharfe (Frequenz-) Bandsperre. Weiteres <a href="http://de.wikipedia.org/wiki/Kerbfilter" target="_blank">hier</a> bei Wikipedia
In diesem Beitrag geht es außerdem um einen groben Umriss des neuen Solarmodells. Es ist ein Null-dimensionales Modell. Seine Stärke liegt in seiner Einfachheit – es ist ein Verfahren von oben nach unten. Dies löst eine Menge der Probleme, die die ambitionierteren GCMs aufweisen – sie sind ein Verfahren von unten nach oben und ertrinken im Endeffekt in Rauschen und Ungewissheit. Dieses Modell hier versucht gar nicht erst, regionale oder jahreszeitliche Auswirkungen in diesem Stadium vorherzusagen. Das Wichtigste zuerst – wir müssen die Haupttreiber des globalen Klimas herausfinden.
Im Folgenden erklärt David Evans, warum Sinuskurven so mächtige Instrumente sind. Einige der wichtigsten Graphiken hier sind Frequenzen – worauf wir Nicht-Elektroingenieure uns konzentrieren müssen. Man achte auf die logarithmische Skala unten. 1000-Jahres-Zyklen sind links und 1-Jahres-Zyklen rechts.
Es gibt eine Menge zu sagen. Gute Skeptiker werden an Kritiken denken und daran, Hypothesen in Frage zu stellen. Das ist alles wunderbar; man erinnere sich, dass wir diese Fragen ausführlich schon längst gestellt haben (z. B., ist es in Ordnung, Linearität zu vermuten?), und dies ist ein kurzer Artikel zur Einführung. Wir vermuten, jedoch nur zeitweise, dass die Sonnenstrahlung mit all der Erwärmung verbunden sein könnte (man beachte, ich habe nicht gesagt „verursacht“). Diese Hypothese ist für die Untersuchung verwendet und dann fallen gelassen und getestet worden. Das ist parallel zu dem was die CO2-getriebenen Modelle machen – sie vermuten, dass CO2 all diese Erwärmung verursacht hat. Sie sind einfach im Schritt „Testen“ hängen geblieben. Auch hat Evans eine Fourier-Analyse verwendet, um die Datensätze zu untersuchen und die Filter zu finden. Dann nutzte er diese Filter, um ein Modell zu konstruieren. Dieses Zwei-Schritte-Verfahren bedeutet, dass Skeptiker rote Flaggen zeigen können, die für einen Schritt relevant sind, aber durch den zweiten Schritt irrelevant werden. Ich sage dies zu Beginn in der Hoffnung, dass wir zu konstruktiverer Kritik kommen.
Wenn man es eilig hat, gehe man gleich zu den Abbildungen 5 und 6 im wichtigsten Abschnitt! Man betrachte die Spitze bei 11 Jahren und sehe, dass diese in allen Datensätzen auftaucht!
——————————————————————————————————
Den Filter entdecken
Dr. David Evans
Referenz: Cite as Evans, David M.W. “The Notch-Delay Solar Theory”, sciencespeak.com/climate-nd-solar.html, 2014.
Die Kohlendioxid-Theorie ist eindeutig ungeeignet, wie die Leser hier nur zu gut wissen. Also fragten wir uns, ob nicht die Sonne Ursache eines Teils der jüngsten globalen Erwärmung sein könnte. Das heißt die Erwärmung der letzten paar Jahrzehnte, vielleicht zurück bis zum Jahr 1800 oder so.
Solarstrahlung und Temperatur
Die besten und eindeutigsten solaren Datensätze sind jene der Gesamt-Solarstrahlung TSI, oder die Gesamtenergie von der Sonne in allen elektromagnetischen Frequenzen – hauptsächlich sichtbar als Licht, aber auch als UV und einige Infrarot-Frequenzen. Diese Datensätze schätzen die Gesamtenergie von der Sonne, die auf eine Fläche fällt, die sich an der Stelle der mittleren Entfernung der Erde von der Sonne befindet (1 Astronomische Einheit AE). Die TSI-Daten sind daher Jahreszeiten-bereinigt, so dass sie uns nichts darüber sagen können, was in Zeiträumen passiert, die kürzer sind als ein Jahr oder bei Häufigkeiten, die größer sind als ein Zyklus pro Jahr (das wird später noch wichtig). Die TSI wird in Watt pro Quadratmeter (W/m²) gemessen.
Die Temperatur, an der wir am meisten interessiert sind, ist die in unserer unmittelbaren Umgebung, die „globale mittlere Lufttemperatur an der Erdoberfläche“, also Lufttemperaturen auf oder nahe der Oberfläche, die über den gesamten Planeten gemittelt sind. Wenn wir den Begriff „Temperatur“ ohne weiteren Zusatz in diesem Beitrag verwenden, dann ist genau diese Temperatur gemeint. Die „globale Erwärmung“ ist der Anstieg dieser Temperatur.
Das Anfangsziel dieses Projektes ist es, eine Antwort auf die folgende Frage zu finden: Falls die jüngste globale Erwärmung fast durchweg der Solarstrahlung geschuldet ist und keinen Zusammenhang mit CO2 aufweist, welches solare Modell kann dies abdecken?
Konstruieren wir also dieses Solarmodell
Wir peilen eine Art Blackbox an, dessen Input die TSI und dessen Output die Temperatur ist.
Das Klimasystem ist angenähert linear hinsichtlich kleiner Störungen, wie sie seit dem Ende der letzten Eiszeit aufgetreten sind. In der Klima-Modellierung ist es üblich anzunehmen, dass das Klimasystem linear ist. Das Klimasystem ist auch „unveränderlich“, was einfach bedeutet, dass sich deren Eigenschaften nicht signifikant mit der Zeit ändern. Also nehmen wir an, dass das Klimasystem linear und invariant ist, zumindest während der letzten paar hundert Jahre (und vermutlich bis zurück zum Ende der letzten Eiszeit).
Der Weg, ein lineares und invariantes System zu analysieren erfolgt mittels Sinuswellen. Eine Sinuswelle hat eine Frequenz, eine Amplitude und eine Phase. Sinuswellen sind das Richtige für lineare invariante Systeme, weil:
• Falls der Input eine Sinuskurve ist, dann ist der Output eine Sinuskurve gleicher Frequenz.
• Bei jeder Frequenz ist das Verhältnis der Output- zur Input-Amplitude sowie die Differenz zwischen den Output- und den Input-Phasen immer die Gleiche.
• Das Verhalten bei einer Frequenz wird nicht beeinflusst von dem, was bei anderen Frequenzen passiert.
Viele Systeme sind linear und invariant, so wie freier Raum für elektromagnetische Fluktuationen. Darum sind Sinuswellen und die Fourier-Analyse so universell in unserer Analyse des Universums. Während man die Fourier-Analyse auch für bloße Kurvenanpassungen verwenden kann, liegt die wirkliche Bedeutung und Macht der Sinuskurven darin, dass sie Eigenfunktionen allerlinearen invarianten Systeme sind.
Analysieren wir also die TSIO- und Temperatur-Datensätze im Frequenzbereich. Das heißt, wir werden sie als Summe von Sinuskurven umformen.
1 Das Input-Spektrum (TSI)
Die TSI wurde von Satelliten erst seit Ende 1978 gemessen. Die Anzahl der Sonnenflecken wurde jedoch seit 1610 aufgezeichnet, und die TSI war rekonstruiert worden nach der Anzahl der Sonnenflecken (Lean 2000). Die wesentlichen TSI-Datensätze sind die PMOD-Satellitenbeobachtungen seit Ende 1978. Leans Rekonstruktion von 1610 bis 2008 und die Steinhilber-Rekonstruktionen aus Beryllium-Isotopen in Eisbohrkernen, die 9300 Jahre zurückreichen.
Die wesentlichen TSI-Datensätze sind verrauscht und widersprechen manchmal auch einander. Wir versuchen nicht, eine „beste“ empirische Aufzeichnung herauszupicken, sondern versuchen stattdessen, dasjenige Spektrum der TSI zu finden, das am besten zu fast allen wesentlichen TSI-Datensätzen passt. Wir kümmern uns hier nur um die Amplituden, weil die Phasen der Sinuskurven aus den Klimadatensätzen nicht zuverlässig bestimmt werden können.

Abbildung 1: Die zur Abschätzung des TSI-Spektrums verwendeten Datensätze seit 1600.
Die vielen Nicht-Übereinstimmungen der TSI-Datensätze stehen für ein verrauschtes kombiniertes Amplituden-Spektrum [Original: The many disagreements of the TSI datasets make for a noisy combined amplitude spectrum.]

Abbildung 2: Die Amplituden-Spektren der verschiedenen TSI-Datensätze (die Reihe farbiger Punkte) und die geglättete Kurve des Best Fit (orange Linie). Größere Punkte haben mehr Gewicht bei der Glättung. Man beachte die Spitze um 11 Jahre.
Das TSI-Amplitudenspektrum ist die orangene geglättete Kurve in Abbildung 2. Sie verläuft im Wesentlichen gerade über mehr als drei Größenordnungen der Frequenz-Magnitude, mit Ausnahme einer ausgeprägten Spitze um 11 Jahre, dessen Schärfe durch die geglättete Kurve unterschätzt wird.
Die Länge eines Sonnenfleckenzyklus’ beträgt im Mittel 11 Jahre, obwohl individuelle „Zyklen“ zwischen 8 und 14 Jahren variieren. Also würden wir stärkere Sinuskurven etwa alle 11 Jahre erwarten. Dieses Spektrum entspricht unseren Erwartungen.
2 Das Output-Spektrum (Temperatur)
Die wesentlichen Temperaturaufzeichnungen sind die Satellitenaufzeichnungen seit Ende 1978 (UAH und RSS), die Bodenbeobachtungen mit Thermometern seit 1850 oder 1880 (HadCrut4, GISTEMP und NCDC), die beiden umfassenden Proxy-Zeitreihen von Christiansen und Ljungqvist 2012, die bis zum Jahr 1500 zurückreichen mit 91 Proxys und bis zum Jahr Null mit 32 Proxys, sowie die Eisbohrkerne aus Dome C, die 9300 Jahre zurückreichen (um zu den TSI-Daten zu passen).
Die Haupt-Temperatur-Datensätze sind verrauscht und widersprechen einander manchmal. Auch hier haben wir nicht die „beste“ empirische Aufzeichnung herausgesucht, sondern einfach versucht, das Spektrum zu finden, das am besten zu allen Haupt-Datensätzen passt.

Abbildung 3: Die zur Abschätzung des Temperaturspektrums verwendeten Datensätze sind umso verrauschter und widersprüchlicher, je weiter sie zeitlich zurückreichen.
Das Temperatur-Amplitudenspektrum, die geglättete Kurve in Abbildung 4, verläuft im Wesentlichen gerade über mehr als drei Größenordnungen der Frequenz-Magnitude ohne weitere definitive Besonderheiten.

Abbildung 4: Die Amplituden-Spektren der verschiedenen Temperatur-Datensätze (die Reihe farbiger Punkte) und die geglättete Kurve des Best Fit (orange Linie). Größere Punkte haben mehr Gewicht bei der Glättung.
Man beachte den Großen Anhaltspunkt: Es gibt keine Spitze bei 11 Jahren!
Das kommt unerwartet, denn die TSI liefert die Energie, die die Erde erwärmt. Die TSI erreicht um 11 Jahre einen Spitzenwert, und doch gibt es keine korrespondierende Spitze bei der Temperatur, selbst wenn man unsere hinsichtlich Rauschens optimale Fourier-Analyse anwendet!
(Nennen wir hier einige Zahlen: Die TSI variiert normalerweise vom Minimum zum Maximum eines Sonnenfleckenzyklus’ um 0,8 W/m² von 1361 W/m². An der Erdoberfläche liegt der Wert bei 0,14 W/m² unreflektierter TSI. Falls dies eine langzeitliche Änderung war, würde die Stefan-Boltzmann-Gleichung eine Änderung der Strahlungs-Temperatur von etwa 0,05°C implizieren, was auf der Erdoberfläche zu einer Temperaturänderung von 0,1°C führen würde. Die Spitzen dauern lediglich ein oder zwei Jahre, so dass der Low-Pass-Filter im Klimasystem die Temperaturspitze zu irgendeinem Wert unter 0,1°C reduzieren würde. Die Fehler-Bandbreite der Temperaturaufzeichnungen liegt allgemein um 0,1°C, aber die Fourier-Analyse findet normalerweise sich wiederholende Beulen bis einem kleinen Bruchteil der Fehler-Bandbreite, vielleicht ein Zehntel. Allerdings sind diese Beulen nicht regelmäßig angeordnet, so dass die Nachweisbarkeit ein wenig höher wäre. In jedem Falle würden wir erwarten, dass die Temperatur nachweisbare Spitzen erreicht, wenn wir die Daten und Verfahren verwenden, wie wir es hier tun, wenn auch nicht mit einer gewaltigen Größenordnung. In einem späteren Beitrag zeigen wir eine physikalische Interpretation des Kerbfilters, der der TSI-Erwärmung entgegenwirkt, aber natürlich wäre es sehr unwahrscheinlich, dass ein solches Entgegenwirken die Temperatureffekte eines TSI-Spitzenwertes kompensieren würde. Aber angesichts dessen, dass die Bandbreite zum Auffinden eines TSI-Spitzenwertes nicht groß ist, ist es glaubhaft, dass die haupt-kompensierten TSI-Spitzen tatsächlich nicht auffindbar sind). Dieser Absatz wurde korrigiert.
Das ist ein wichtiger Hinweis. Es ist das Fehlen von etwas, das wir erwartet hatten. In der Elektronik nennt man einen Filter, der das Brummen in den Lautsprechern entfernt, einen Kerbfilter. Er eliminiert eine enge Bandbreite von Frequenzen, die wie ein Einschnitt in einer Frequenzgraphik aussehen. Ohne einen solchen Kerbfilter wäre das Brummen bei 50 oder 60 Hz oft hörbar. Es scheint, dass irgendetwas das 11-jährige „solare Brummen“ aus der Temperatur eliminiert, und darum nennen wir dieses Phänomen „den Filter“.
3 Die Transfer-Funktion
Eine Transfer-Funktion gibt an, wie eine Sinuskurve im Input durch das System transferiert wird, bis sie als Output wieder herauskommt. Hier geht es nur um Amplituden (das heißt nicht um Phasen), so dass deren Wert bei einer gegebenen Frequenz einfach die Output-Amplitude bei dieser Frequenz ist, dividiert durch die Input-Amplitude bei dieser Frequenz. Teilt man die orangene Linie in Abbildung 4 durch die orangene Linie in Abbildung 2, kommen wir zur empirischen Transferfunktion, die Abbildung 5 zeigt: 

Abbildung 5: Die Amplitude der empirischen Transfer-Funktion. Die graue Zone ist ein graphisches Hilfsmittel, um es einfacher zu machen, Orte auf und zwischen den Graphiken zu beurteilen und zu vergleichen – weil sie genau am gleichen Ort in allen Diagrammen in diesem Projekt liegen.
Die Transfer-Funktion ist ziemlich flach, außer für die Kerbe beim Zeitpunkt 11 Jahre und Hinweisen auf einen Abfall bei den höheren Frequenzen.
Die Kerbe ist robust. Wir berechneten die empirische Transfer-Funktion aus Sequenzen der Datensätze, wie die Daten vor 1945 oder nach 1945, und in jedem Fall ist die Kerbe klar erkennbar.

Abbildung 6: Die Amplituden der empirischen Transfer-Funktion, wenn die Daten in der markierten Weise begrenzt werden (das heißt, unter Verwendung einer Sequenz des Datensatzes, der zur Erstellung von Abbildung 5 verwendet wurde). Die schwarze Linie und die graue Zone sind entsprechend Abbildung 5.
Die Kerbe ist eine so prominente Erscheinung, dass wir sie verifizieren können einfach durch den Vergleich der TSI mit der Temperatur:

Abbildung 7: Die Solarstrahlung zeigt einen starken Ausschlag etwa alle 11 Jahre, die Temperatur aber nicht.
Im nächsten Beitrag wollen wir das Solarmodell konstruieren, beginnend mit einem Kerbfilter.
Link: http://joannenova.com.au/2014/06/big-news-part-ii-for-the-first-time-a-mysterious-notch-filter-found-in-the-climate/
Anm. d. Übers.: Es folgen jetzt noch einige technische Einzelheiten, die man sich gerne im Original anschauen möge. Dieser Beitrag ist offenbar einer in einer neunteiligen Reihe. Die alle zu übersetzen schaffe ich nicht, das würde auch zu weit führen. Hier gibt es jedoch eine Zusammenfassung aller neun Artikel, die hier in deutscher Übersetzung folgt:

The Notch-Delay Solar Theory

Eine neue Theorie zeigt, dass natürliche Einflüsse die jüngste globale Erwärmung erklären können. Die Theorie wird derzeit der Welt vorgestellt in einer Reihe von Blogbeiträgen auf dem Blog von Joanne Nova.
Teil I: historische Entwicklung – Einführung eines neuen solaren Klimamodells (hier)
Teil II: Zum ersten Mal – ein mysteriöser Kerbfilter beim Klima wurde gefunden. Falls die jüngste globale Erwärmung fast durchweg mit der Sonneneinstrahlung verknüpft war und keine Abhängigkeit von CO2 besteht – welches solare Modell würde dies abbilden können? Wir wollen dieses Modell konstruieren. Wir nehmen an, dass das System von der Gesamt-Sonneneinstrahlung (TSI) zur Temperatur linear und invariant ist. Also verwendeten wir Sinuskurven und Frequenzen für die Analyse. Die TSI erreicht alle 11 Jahre einen Spitzenwert, doch gibt es keinen korrespondierenden Spitzenwert bei der Temperatur, was unerwartet kommt. Dies impliziert, dass es einen natürlichen Kerbfilter  gibt, der das 11-jährige ‚Brummen‘ von der Sonne herausfiltert [siehe Übersetzung oben inkl. Link).
Teil III: Die Kerbe bedeutet eine Verzögerung. In der Literatur gibt es viele unabhängige Ergebnisse hinsichtlich einer Verzögerung um 11 Jahre zwischen Änderungen der Solarstrahlung und einer korrespondierenden Auswirkung auf die Temperaturen der Erde, und ohne eine Verzögerung ist kaum zu verstehen, wie solare Änderungen viel Einfluss auf die Temperatur an der Erdoberfläche haben können (z. B. Lockwood und Fröhlich 2007). Die Möglichkeit einer Verzögerung ist hoch, so dass wir sie in unser Solarmodell eingehen lassen (Ursprünglich hatten wir gedacht, dass eine Kerbe in einem linearen invarianten System notwendigerweise die Existenz einer damit verbundenen Verzögerung impliziert. Später stellte sich jedoch heraus, dass dies nicht der Fall war). Das Klimasystem gleicht einem Eimer voll Wärme, wobei unreflektierte Solarstrahlung oben hineinfließt und Abstrahlung in den Weltraum aus einem Loch im Boden erfolgt. Dieser Mechanismus hat dieselbe Gleichung wie ein Low-Pass-Filter in unserem Solarmodell, um das thermische Beharrungsvermögen des Klimasystems nachzuahmen (hier).
Teil IV: Ein großer Schritt zum Verständnis der 11-jährigen solaren Verzögerung. Physikalische Interpretation der Kerbe und der Verzögerung. Die Verzögerung ist eine echte Verzögerung, nicht bloß eine Zeitkonstante eines dissipativen Elementes wie die Speicherung ozeanischer Wärme. Soweit wir wissen, hat nichts auf der Erde ein vieljähriges Gedächtnis, aber ein Sonnenflecken-Zyklus hat eine mittlere Länge von 11 Jahren. Die Kerbe zeigt, dass es eine ausgleichende Kraft geben muss, der die TSI-Spitzen in der Temperatur wegbügelt. Diese Kraft muss synchron mit der Sonne laufen. Es ist wichtig, sich nicht im Vorhinein festzulegen, welcher Art dieser Einfluss ist, so dass wir sie hier vorläufig „Kraft X“ nennen wollen. … Obwohl wir die Existenz dieser Kraft in den Datensätzen wiederfinden und wir deren relevante Eigenschaften kennen, wissen wir im jetzigen Stadium nicht, was Kraft X ist (hier)
Teil V: Entweichende Wärme. Die drei-Kanäle-Theorie und der RATS-Vervielfältiger. Der Low-Pass-Filter ergibt die Änderungen der effektiven Temperatur, mit der die Erde in den Weltraum abstrahlt. Die korrespondierenden Änderungen der Temperatur auf der Erde im Zeitmaßstab von einem Jahr oder mehr kann mit einem sehr einfachen Modell berechnet werden, dem RATS-Vervielfältiger (hier)
Teil VI: Konstruktion eines neuen Solar-Klimamodells mit dem Kerbfilter. Der Kerbfilter, ein Verzögerungs-Filter, der Low-Pass-Filter und der RATS-Vervielfältiger werden in der korrekten Reihenfolge arrangiert. Es zeigt sich, dass die Kerb- und Verzögerungs-Filter die Albedo der Erde modulieren – wie viel Solarstrahlung wird in das Klimasystem eingelassen nach Reflektionen durch Wolken, Eis, Schnee und so weiter. Der unmittelbare Weg für TSI-Änderungen, die die Erde direkt erwärmen, wird hinzugefügt, und damit ist das Modell komplett. Die Einschwingphase des Modells wird untersucht (hier)
Teil VII: Nachhersage mit dem Solarmodell. Das Kerbfilter-verzögerte Solarmodell spiegelt die Temperaturen von 1770 bis 2013 ziemlich gut, platziert es doch die wesentlichen Wendepunkte etwa an den richtigen Stellen, einschließlich des „Stillstands“. Es reproduziert auch einige der kurzfristigen Schwankungen, bekannt als „natürliche Klimavariation“, was das CO2-Modell überhaupt nicht kann, weil der CO2-Gehalt gleichmäßig steigt. Das Kerbfilter-verzögerte Solarmodell ist ein quantifiziertes, physikalisches Modell – nicht bloß über den Daumen gepeilt, ohne eine grobe Berechnung, Kurvenanpassung oder unerklärte Korrelationen. Seine Existenz zeigt, dass die globale Erwärmung der letzten beiden Jahrhunderte hauptsächlich mit der TSI und nicht CO2 in Verbindung stehen könnte. Dies überführt einen der felsenfesten Glaubensgrundsätze zur anthropogenen globalen Erwärmung, nämlich dass die jüngste globale Erwärmung ausschließlich über das CO2 erklärlich ist. Die Kerbfilter-Verzögerungs-Theorie bietet eine zweite, alternative Lösung für das Klimaproblem [so es ein solches gibt, Anm. d. Übers.]. Klima ist nicht länger ein „einseitiges Rennen“, das einen darauf begrenzt, entweder die CO2-Theorie zu unterstützen oder sich auf deren Schwächen zu konzentrieren (hier).
Teil VIII: Die neue Solartheorie sagt eine unmittelbar bevorstehende globale Abkühlung voraus. Es gab drei große Rückgänge der Solarstrahlung während der 400 Jahre, aus denen Aufzeichnungen vorliegen. Der erste im 17. Jahrhundert führte zum Maunder-Minimum, der kältesten Periode der letzten 400 Jahre. Der zweite ereignete sich zu Napoleons Zeiten und führte zum Dalton-Minimum, der zweitkältesten Periode der letzten 400 Jahre. Der dritte begann im Jahre 2004, führte aber nicht zu einer Abkühlung… bisher jedenfalls. Die Kerbfilter-Verzögerungs-Theorie (ND) sagt, dass der Abfall der TSI-Signale ein Abfall der Kraft X ist, die nach einer Verzögerung wirksam wird, die 11 Jahre zu dauern scheint. Der Temperatur-Abfall wird also vermutlich 2004 + 11 Jahre = 2015 beginnen. Aber die Verzögerung ist an die Länge des Sonnenzyklus‘ gekoppelt, so dass die Abkühlung eher 2004 + 13 Jahre = 2017 beginnen wird. Die Abkühlung wird mindestens 0,2°C, vielleicht 0,5°C betragen, das wäre ausreichend, um die globale Erwärmung bis auf das Niveau des Jahres 1950 zurückzuschrauben. Kohlendioxid und ND-Solartheorie stimmten während des letzten Jahrhunderts überein, weil der CO2-Gehalt und die Sonneneinstrahlung parallel gestiegen waren, aber inzwischen divergieren sie scharf. Nur eine kann richtig sein, und bald werden wir wissen welche. Hier ist das Kriterium: Ein Rückgang von mindestens 0,1°C (auf 1-jähriger geglätteter Basis) der globalen mittleren Temperatur während des nächsten Jahrzehnts. Wird das Kriterium nicht erfüllt, ist die ND-Solartheorie Unsinn und sollte verworfen werden. Falls es doch dazu kommt, ist die CO2-Theorie Unsinn und sollte verworfen werden [da habe ich Zweifel, wenn das so sein sollte: Glaubenssätze werden von denjenigen, die damit Macht ausüben, sicher nicht weggeworfen, egal wie sehr sie Müll sind! Anm. d. Übers.] (hier)
Hinweis des Übersetzers: Diesen Teil 8 fand der Autor so bedeutsam, dass er ihn im Original rot gesetzt hat. Die Website-Textverarbeitung gibt das aber nicht her, weshalb der Abschnitt kursiv gesetzt ist.
Teil IX: Das Solarmodell! Die Tabelle mit allen Daten, dem Modell und den Berechnungen, alle in einer Excel-Datei, sind zum Download verfügbar, und zwar hier.
Link zu dieser Zusammenfassung: http://sciencespeak.com/climate-nd-solar.html
Alles übersetzt von Chris Frey EIKE