Harmonische Klimamodelle im Vergleich mit den generellen Klima-Zirkulationsmodellen des IPCC

Hiermit möchte ich in Kürze meine jüngste Veröffentlichung präsentieren. Damit setze ich meine Forschungen über die Bedeutung natürlicher Klimazyklen und ihre Einwirkung auf Klimaänderungen fort:
Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models” Journal of Atmospheric and Solar-Terrestrial Physics (2011).
http://www.sciencedirect.com/science/article/pii/S1364682611003385
Dazu gibt es hier eine .pdf-Version als Broschüre.
Die wesentlichen Ergebnisse dieser neuen Studie werden hier als Höhepunkte zusammengefasst:
1) Die Klimamodelle des IPCC (CMIP3) können beobachtete dekadische und multidekadische Klimazyklen nicht reproduzieren.
2) Äquivalente Zyklen finden sich unter den primären Oszillationen des Sonnensystems.
3) Es wird eine Korrektur der projizierten anthropogenen Erwärmung für das 21. Jahrhundert vorgeschlagen.
4) Ein vollständiges empirisches Modell wird entwickelt, um Klimaänderungen für einige Jahrzehnte ab 2000 vorherzusagen.
5) Das Klima wird wahrscheinlich bis etwa 2030/2040 stabil bleiben, wonach eine Erwärmung von 0,3°C bis 1,2°C bis zum Jahr 2100 erfolgt.
Allerdings erfordert die wissenschaftliche Methodik, dass ein physikalisches Modell zwei einfache Bedingungen erfüllen muss: es muss physikalische Beobachtungen reproduzieren und vorhersagen können. Daher ist es vollkommen legitim in der Wissenschaft zu prüfen, ob die vom IPCC übernommenen Computer-GCMs die erforderlichen wissenschaftlichen Tests bestehen, das heißt in unserem Fall, ob diese Modelle den Temperaturverlauf des 20. Jahrhunderts ausreichend rekonstruieren und als Konsequenz, ob man diesen Modellen wirklich hinsichtlich ihrer Projektionen für das 21. Jahrhundert vertrauen kann. Fällt die Antwort negativ aus, ist es vollkommen legitim, nach fehlenden Mechanismen zu suchen und/oder nach alternativen Methoden.
Eine der größten Schwierigkeiten der Klimawissenschaft, soweit ich das sehe, ist die Tatsache, dass wir die Verlässlichkeit einer Klimatheorie oder eines Computermodells nicht mit kontrollierten Labortests überprüfen können. Wir können auch nicht das Klima anderer Planeten zum Vergleich heranziehen. Wie leicht könnte es sein, die anthropogenen Auswirkungen auf das Klima quantifizieren, wenn wir einfach das Klima eines anderen Planeten untersuchen, der mit Ausnahme der Menschen mit der Erde identisch ist! Aber diesen Luxus haben wir nicht.
Unglücklicherweise können wir eine Klimatheorie oder ein Computermodell nur gegen die verfügbaren Daten testen, und wenn sich diese Daten auf ein komplexes System beziehen, ist es wohlbekannt, dass selbst eine auf den ersten Blick kleine Diskrepanz zwischen Modellergebnissen und Daten massive physikalische Probleme enthüllen kann.
In einigen meiner früheren Studien, zum Beispiel hier (2011), hier (2010), zusammen mit Loehle hier (2011) und hier (2011) haben wir dargestellt, dass die globalen Temperaturaufzeichnungen mit Thermometern, die es einigermaßen zuverlässig seit 1850 gibt, nahelegen, dass das Klimasystem mit zahlreichen astronomischen Oszillationen, z. B. in der Sonnenaktivität, heliosphärischen Oszillationen aufgrund der Planetenbewegungen und in Mondzyklen schwingt und/oder synchron verläuft.
Die bekanntesten Zyklen, die in den Aufzeichnungen der globalen Temperatur erkennbar sind, haben Perioden von 9,1 Jahren, 10 bis 11 Jahren, etwa 20 Jahre und etwa 60 Jahre. Der 9,1 Jahre lange Zyklus scheint mit solaren/lunaren Tidenzyklen zusammen zu hängen, wie ich auch in dieser Studie zeigen werde, während die anderen drei Zyklen solare/planetarische Zyklen zu sein scheinen, die direkt mit dem Orbits von Jupiter und Saturn in Beziehung stehen. Andere Zyklen mit allen Zeitscales sind ebenfalls präsent, aber nicht Gegenstand dieser Studie.
Die obigen vier wesentlichen Periodizitäten können leicht aus den Temperaturaufzeichnungen abgelesen werden, und zwar mit Methoden alternativer Analysen von Leistungsspektren [?], wie die Abbildung unten zeigt:
 
Abbildung 1
Sich ähnelnde dekadische und multidekadische Zyklen wurden in zahlreichen klimatischen Proxy-Modellen Jahrhunderte und Jahrtausende lang beobachtet, was ich in den Referenzen unten erwähnt habe, obwohl die Proxy-Modelle wegen der manchmal großen Divergenz von der Temperatur sehr sorgfältig untersucht werden müssen.
Der untere Teil der Abbildung beleuchtet einen 60-Jahres-Zyklus der Temperatur (rot), welcher klar hervortritt, wenn man den Erwärmungstrend aus den Daten herausrechnet und die schnellen Fluktuationen herausfiltert. Die schwarzen Kurven erhält man mittels harmonischer Modelle auf dekadischer und multidekadischer Basis, kalibriert auf zwei sich nicht überlappende Zeiträume: 1850 bis 1950 und 1950 bis 2010, so dass sie gegenseitig überprüft werden können.
Obwohl die diese Zyklen hervorrufende Abfolge physischer Mechanismen nach wie vor unklar ist, können die gefundenen Zyklen sicher von einem rein geometrischen Standpunkt aus als Beschreibung der dynamischen Entwicklung des Klimasystems angesehen werden. (In früheren Beiträgen von mir habe ich erklärt, dass die verfügbaren Klimadaten eine astronomisch bedingte Variation der Bewölkungsmenge nahe legen, die kleine Oszillationen der Albedo zur Folge haben mit der Konsequenz, dass auch die Temperatur am Boden oszilliert und mit ihr die Ozeane).
Offenbar können die harmonischen Komponenten der Klimadynamik empirisch modelliert werden, auch ohne detaillierte Kenntnis der zugrunde liegenden Physik, genauso wie man auch die Gezeiten des Ozeans mit einfachen harmonischen Bestandteilen rekonstruieren und vorhersagen kann, wie Lord Kelvin im 19 Jahrhundert erkannte. Leser sollten sich klarmachen, dass Kelvins harmonisches Modell wahrscheinlich das einzige geophysikalische Modell ist, das seine guten Vorhersagemöglichkeiten bereits unter Beweis gestellt hat und das man deswegen in Maschinen zur Vorhersage der Gezeiten implementiert hat. Details siehe http://en.wikipedia.org/wiki/Theory_of_tides#Harmonic_analysis
In meiner Studie habe ich die gleiche Kelvin’sche Annäherung eingebaut, und zwar auf zweierlei Art:

  1. durch abchecken, ob die GCMs des IPCC die entdeckten globalen Temperaturzyklen geometrisch reproduzieren können;
  2. und durch abchecken, ob ein harmonisches Modell für Klimavorhersagen benutzt werden könnte. Ein Vergleich der beiden Methoden findet sich ebenfalls in der Studie.

Ich habe alle verfügbaren Klimamodellsimulationen des 20. Jahrhunderts mit dem Program for Climate Model Diagnosis and Intercomparison (PCMDI) gesammelt, hauptsächlich aus den Jahren 2005 und 2006, und diese archivierten Daten ergeben Phase 3 des Coupled Model Intercomparison Project (CMIP3). Dieses kann man sich hier herunterladen.
Die Studie enthält einen großen Anhang mit Bildern aller GCM-Modellläufe und ihrem Vergleich mit der globalen Temperatur, beispielsweise von der Climatic Research Unit (HadCRUT3). Ich fordere alle nachdrücklich auf, sich die zahlreichen Abbildungen in diesem Anhang mal anzusehen, um ein Gefühl für die Leistung dieser Modelle bei der Rekonstruktion des beobachteten Klimas zu bekommen, welche nach meiner Ansicht für alle Zeiträume ziemlich dürftig ist.
In der Abbildung unten zeige ich nur mal als Beispiel die Aufzeichnungen von HadCRUT3 gegen die Simulation vom GISS-ModelE für die globale Temperatur von 1880 bis 2003 unter Verwendung aller Antriebe, die man sich hier herunterladen kann.
 
Abbildung 2
Der Vergleich zeigt klar die erhebliche Diskrepanz zwischen der Modellsimulation und den Temperaturdaten. Qualitativ ähnliche Diskrepanzen sind typisch und finden sich in allen vom IPCC übernommenen GCMs.
Obwohl ein gewisser Erwärmungstrend in den Modellen zum Ausdruck kommt, der mit den Beobachtungen übereinzustimmen scheint, ist die Modellrechnung tatsächlich nicht in der Lage, die zyklische Dynamik des Klimas zu reproduzieren, aus der sich ein etwa 60-jähriger Zyklus ergibt mit Wärmespitzen um 1880, 1940 und 2000. Diese Verteilung wird außerdem durch den synchronisierten 20-jähringen Temperaturzyklus unterstrichen.
Das GISS ModelE zeigt auch große Ausschläge aufgrund von Vulkanausbrüchen, die in den Temperaturaufzeichnungen ziemlich schwer auszumachen sind. Tatsächlich zeige ich im Anhang die Signatur des GISS ModelE für den vulkanischen Antrieb allein im Vergleich zur gleichen Signatur, die man mit zwei vorgeschlagenen empirischen Modellen erhält, die den vulkanischen Antrieb direkt aus den Temperaturdaten selbst extrahieren..
 
Abbildung 3
Die Abbildung zeigt eindeutig, dass das Modell GISS ModelE das kühlende vulkanische Signal erheblich überschätzt. Das gilt auch für die anderen GCMs, wie die Abbildungen im Anhang zeigen. Dieser Umstand ist ziemlich bedeutend, wie ich weiter unten zeigen werde. Tatsächlich gibt es Versuche, Klimavariationen durch Betonung der Auswirkung vulkanischen Aerosols zu rekonstruieren, aber das Fehlen vulkanischer Spitzen in den Temperaturaufzeichnungen zeigt, dass der vulkanische Effekt schon jetzt überschätzt wird.
In jedem Falle konzentriert sich die Studie darauf festzustellen, ob die 2007 vom IPCC übernommenen GCMs die in den Temperaturaufzeichnungen gemessenen zyklischen Modulationen reproduzieren. Mit einem einfachen, auf vier Zyklen basierendem Regressionsmodell (etwa 9,1; 10; 20 und 60 Jahre) plus einem steigenden Trend, der geometrisch durch quadrierte Abweichungen der Temperatur dargestellt werden kann, habe ich in der Studie gezeigt, dass alle vom IPCC übernommenen GCMs darin scheitern, die beobachteten Temperaturzyklen sowohl im dekadischen als auch im multidekadischen Zeitscale zu reproduzieren.
 
Abbildung 4
Die obige Abbildung beispielsweise beschreibt die Koeffizienten „a“ (für den 60-jährigen Zyklus) und „b“ (für den 20-jährigen Zyklus), wie sie von allen Modellläufen der GCMs des IPCC gezeigt werden. Sie sind einfach auf der Abszisse durchnumeriert. Werte von „a“ und „b“ nahe 1 würden darauf hinweisen, dass die Modellsimulation die korrespondierenden Temperaturzyklen gut abbildet. Wie aus der Abbildung hervorgeht (und aus den Tabellen in der Studie) scheitern alle Modelle damit in ziemlich großem Umfang.
Die Schlussfolgerung ist eindeutig, einfach und geradlinig: alle vom IPCC übernommenen GCMs scheitern daran, die in den globalen Temperaturaufzeichnungen gemessenen dekadischen und multidekadischen dynamischen Modulationen korrekt zu reproduzieren, folglich reproduzieren sie auch nicht die Dynamiken des Klimas. Offensichtlich ist die Behauptung „Die Wissenschaft ist sich einig“ falsch. Tatsächlich fehlen in den Modellen wichtige physikalische Mechanismen, die Klimaänderungen antreiben und die auch immer noch ziemlich mysteriös sein können, und von denen ich glaube, dass sie letztendlich astronomische Ursachen haben, wie ich in meinen anderen Studien ausführlicher erklärt habe.
Aber nun, was können wir mit dieser physikalischen Information jetzt anfangen?
Es ist wichtig sich klarzumachen, dass die „die-Wissenschaft-ist-sich-einig“ – Behauptung eine notwendige Vorbedingung ist, um irgendein physikalisches System effizient mit einem analytischen Computermodell laufen zu lassen, wie es die GCMs mit dem Klimasystem machen wollen. Wenn sich die Wissenschaft nicht einig ist, ist jedoch eine solche Aufgabe nicht effizient und theoretisch unmöglich. Zum Beispiel kann ein Ingenieur keine funktionierende elektronische Anlage bauen (Telefone, Radios, Fernseher, Computer) oder eine Brücke oder ein Flugzeug, wenn einige der notwendigen physikalischen Prozesse unbekannt wären. Normalerweise arbeiten Ingenieure nicht mit teilweise bekannter Wissenschaft. In der Medizin zum Beispiel behauptet niemand, die Leute mit Hilfe einer Art physiologischem GCM zu heilen! Und die GCM-Modellierer sind im Wesentlichen Computeringenieure und keine Klimawissenschaftler.
In der theoretischen Wissenschaft kann man jedoch versuchen, das o. g. Problem zu überwinden, wenn man andere Arten von Modellen benutzt, nämlich empirisch/phänologische Modelle, die selbst ihre Grenzen haben, aber auch zahllose Vorteile. Man muss lediglich geeignete Extrahierungen vornehmen und die in den Daten selbst enthaltenen Informationen verwenden, um die beobachteten Dynamiken zu modellieren.
Nun, in der Studie habe ich die aus den Daten abgeleiteten geometrischen Informationen verwendet, um zwei Dinge zu machen:

  1. Ich schlage eine Korrektur des angebotenen anthropogenen Erwärmungseffektes auf das Klima in dem harmonischen Modell vor
  2. Ich implementiere den oben genannten anthropogenen Erwärmungseffekt in das harmonische Modell, um eine angenäherte Vorhersage für die globale Temperatur im 21. Jahrhundert zu erzeugen, und zwar mit den gleichen Emissionsprojektionen wie das IPCC.

Bezüglich des ersten Punktes müssen wir eine feinsinnige Begründung übernehmen. Tatsächlich ist es nicht möglich, die natürliche und die anthropogene Komponente im beobachteten Erwärmungstrend seit 1850 (etwa 0,8°C) durch die Verwendung eines harmonischen Modells, kalibriert mit den gleichen Daten, weil aus 161 Jahren Aufzeichnungen höchstens ein 60-jähriger Zyklus gut bestimmt werden kann, voneinander zu trennen. Für noch längere Zyklen ist das nicht möglich.
Was zahlreiche Studien einschließlich einiger von mir (zum Beispiel hier) wirklich gezeigt haben ist, dass dieser Erwärmungstrend von 1850 bis 2010 Teil eines Jahrhunderte/Jahrtausende langen Zyklus’ sein kann, der auch für das Römische Klimaoptimum, die Dunklen Zeitalter, das Mittelalterliche Klimaoptimum und die Kleine Eiszeit verantwortlich war.
Die folgende Abbildung 5 von Hulum et al. (2011) vermittelt eine Ahnung davon, wie dieser Jahrhunderte/Jahrtausende lange Zyklus auftauchen kann, wenn man versucht, ein viele Jahrtausende langes natürliches Proxy-Modell für die Temperatur in Zentralgrönland zu rekonstruieren.
 
Abbildung 5
Allerdings ist eine akkurate Modellierung der Jahrhunderte/Jahrtausende langen Zyklen gegenwärtig nicht möglich. Die Frequenzen, Amplituden und Phasen sind nicht präzise bekannt, weil sich die Proxy-Modelle für die Temperatur untereinander ziemlich unterscheiden. Für diese Studie wollen wir im Wesentlichen nur reale Temperaturdaten verwenden, und diese beginnen 1850, was offensichtlich ein zu kurzer Zeitraum ist, um so lange natürlichen Zyklen zu extrahieren.
Um weiterzukommen, habe ich eine auf dem 60-jährigen Zyklus basierende Strategie übernommen, wobei eine Amplitude von etwa 0,3°C geschätzt wurde, wie der obere Teil der Abbildung 6 zeigt:
Die IPCC-Abbildungen 9.5a und 9.5b sind gut geeignet, um die Argumentation zu verstehen, sind doch diese beiden  Abbildungen bei den AGW-Vertretern teils sehr populär. Diese beiden Abbildungen folgen hier:
 
Abbildung 6
Teil b der obigen Abbildung zeigt, dass die Temperatur dem IPCC zufolge ohne anthropogenen Antrieb von 1970 bis 2000 um 0,0 bis 0,2°C hätte zurück gehen müssen, und zwar infolge vulkanischer Aktivität. Nur das Hinzufügen anthropogener Antriebe (siehe Teil a) kann die von 1970 bis 2000 beobachtete Erwärmung um 0,5°C produziert haben. Folglich wird behauptet, dass diese anthropogenen Antriebe einen Temperaturanstieg von 0,5°C bis 0,7°C innerhalb von 30 Jahren erzeugt haben. Diese Erwärmung wird dann in den GCMs des IPCC auf das gesamte 21. Jahrhundert ausgeweitet mit einem Erwärmungstrend von 2,3°C pro Jahrhundert, wie es in der Abbildung SPM5 des IPCC unten zum Ausdruck kommt:
 
Abbildung 7
Aber unser Vertrauen in diese Abschätzung des IPCC zum anthropogenen Wärmeeffekt wird direkt durch das Scheitern dieser GCMs in Frage gestellt, die 60-jährige natürliche Modulation zu reproduzieren, die für eine Erwärmung von mindestens 0,3°C von 1970 bis 2000 verantwortlich ist. Als Konsequenz sollte bei Berücksichtigung dieser natürlichen Variabilität der anthropogene Wärmeeffekt nicht über 0,2°C bis 0,4°C liegen anstatt der vom IPCC behaupteten 0,5°C bis 0,7°C.
Dies bedeutet, dass der anthropogene Erwärmungseffekt auf ein Maximum zwischen 0,5°C und 1,3°C pro Jahrhundert reduziert werden muss, und zwar seit 1970 bis etwa 2050 unter Berücksichtigung der gleichen IPCC-Emissionsprojektionen, die in der Studie beschrieben werden. Dieses Ergebnis in der Studie wird auch erreicht durch Berücksichtigung vieler Möglichkeiten einschließlich der Tatsache, dass die Abkühlung durch vulkanische Aktivitäten offensichtlich in den GCMs überschätzt wird, wie wir oben gesehen haben, und ein Teil der übrigen Erwärmung von 1970 bis 2000 könnte immer noch von anderen Faktoren verursacht sein wie den städtischen Wärmeinseleffekt oder der Landschaftsverbrauch.
An dieser Stelle ist es möglich zu versuchen, eine vollständige Vorhersage des Klimas seit 2000 abzugeben, die sich aus den vier entdeckten dekadischen und multidekadischen Zyklen plus den korrigierten anthropogenen Erwärmungstrend ergeben.
 
Abbildung 8
Die Abbildung zeigt eine vollständige Klimavorhersage meines empirischen Modells im Vergleich zu den IPCC-Projektionen seit 2000. Es ist offensichtlich, dass mein vorgestelltes Modell viel besser mit den Daten übereinstimmt als die IPCC-Projektionen, wie auch andere Tests in der Studie zeigen.
Mein vorgestelltes Modell zeigt zwei Kurven: Eine ist kalibriert auf den Zeitraum 1850 bis 1950 und der andere auf den Zeitraum von 1950 bis 2000. Es ist offensichtlich, dass beide Kurven gleichermaßen die Klimavariabilität von 1850 bis 2011 in dekadischen/multidekadischen Zeitscales gut rekonstruieren, da die graue Linie Höhepunkte glättet mit einem mittleren Fehler von nur 0,05°C.
Das vorgeschlagene empirische Modell würde nahelegen, dass die gleichen, vom IPCC projizierten anthropogenen Emissionen eine globale Erwärmung von 0,3°C bis 1,2°C bis 2100 verursachen würden, im Gegensatz zu den vom IPCC projizierten 1,0°C bis 3,6°C. Meine vorgeschlagene Schätzung schließt auch eine zusätzliche mögliche Abkühlung aus, die von Jahrhunderte/Jahrtausende langen Zyklen abgeleitet werden können.
Einige implizit enthaltene Konsequenzen dieses Ergebnisses ist, dass zum Beispiel der Ozean viel weniger steigen dürfte, sagen wir mal ein Drittel (etwa 12,5 cm) bis 2100, als was vom IPCC projiziert worden ist, und wofür wir möglicherweise nicht unsere Wirtschaft zu zerstören brauchen bei dem Versuch, CO2-Emissionen zu reduzieren.
Wird sich meine Vorhersagekurve hoffentlich für mindestens ein paar Jahrzehnte bewähren? Nun, mein Modell ist keine „kristallene Orakelkugel“. Genau wie bei den ozeanischen Zyklen können zahlreiche andere natürliche Zyklen in allen Zeiträumen im Klimasystem wirksam sein und interessante Interferenzen und eine komplexe Dynamik erzeugen. Andere nichtlineare Faktoren können ebenfalls vorhanden sein, und plötzliche Ereignisse wie Vulkanausbrüche können immer die dynamische Verteilung eine Zeitlang unterbrechen. Also kann das Modell sicher noch verbessert werden.
Vielleicht ist das von mir vorgeschlagene Modell aber auch nur eine weitere Illusion, das wissen wir noch nicht sicher. Was man tun kann, ist die Forschung fortzusetzen und zu verbessern und eventuell Monat für Monat neue Temperaturdaten hinzufügen, um zu sehen, wie sich die vorgeschlagene Vorhersage macht, wie es in der Abbildung unten argestellt ist:
 
Abbildung 9
Die obige Abbildung zeigt einen verglichen mit der Studie aktualisierten Graph, wobei die Temperaturaufzeichnung im Oktober 2011 endet. Hinzugefügt ist die Temperatur vom November 2011 in blau. Die monatlichen Temperaturdaten stammen von hier.
Die empirische Vorhersagekurve (schwarze Kurve, gebildet aus der harmonischen Komponente plus dem vorgeschlagenen anthropogenen Erwärmungstrend) zeigt bisher gute Übereinstimmung mit den Daten. Ok, es ist nur ein Monat, könnte man einwenden, aber tatsächlich startet das ausgewählte Vorhersagemodell bereits im Januar 2000!
Zum Vergleich, die Abbildung zeigt in gelb die harmonische Komponente aus den vier Zyklen allein, was interpretiert werden kann als die untere Grenze der natürlichen Variabilität, basierend auf den gleichen vier Zyklen.
 
Abbildung 10
Schlussfolgernd lässt sich sagen, dass das hier vorgestellte Modell sicher ein vereinfachtes Modell ist, das möglicherweise noch verbessert werden kann, aber schon jetzt sieht es so aus, als würde es alle vom IPCC übernommenen GCMs wie z. B. GISS ModelE übertreffen. Alle diese Modelle bringen es nicht fertig, die beobachteten dekadischen und multidekadischen Zyklen zu rekonstruieren. Außerdem haben sie bei der Vorhersage der Temperaturentwicklung seit 2001 versagt.
Es ist offensichtlich, dass ein Klimamodell für jedwede zivilen strategischen Ziele nützlich wäre, aber nur, wenn es in der Lage ist, die Klimaentwicklung zumindest auf dekadischer/multidekadischer Basis vorherzusagen. Die traditionellen GCMs sind mit diesem Ziel bisher gescheitert, wie diese Studie zeigt.
Die Versuche mancher Klimamodellierer in jüngster Zeit, den Fehlschlag ihrer GCMs hinsichtlich des fast konstanten Klimas der letzten 10 Jahre zu erklären und zu lösen, sind sehr unbefriedigend für irgendwelche praktischen und theoretischen Ziele. Tatsächlich lauten einige der vorgeschlagenen Lösungen: 1) eine vermutete Unterschätzung der abkühlenden Wirkung kleinerer Vulkanausbrüche (Solomon et al., Science 2011) (während der Vulkaneffekt in den GCMs schon jetzt offensichtlich überschätzt wird!) oder 2) eine hypothetische chinesische Emission von Aerosolen (Kaufman et al., PNAS 2011) (die jedoch seit 2005 wahrscheinlich zurückgeht!), oder 3) ein 10-jähriges „rotes Rauschen“, eine unvorhersagbare Fluktuation des Klimasystems, angetrieben durch eine Fluktuation im Wärmegehalt der Ozeane (Meehl et al., NCC 2011) (die sich jedoch in den Modellsimulationen erst 2055 und 2075 einstellen soll!)
Offensichtlich können diese GCMs die Klimaänderung nur „a posteriori“ „vorhersagen“, das heißt beispielsweise, wenn wir wissen wollen, was mit diesen GCMs von 2012 bis 2020 passiert, müssen wir erstens bis 2020 warten und die GCMs  dann mit physikalischen ad hoc-Erklärungen anpassen, einschließlich sogar einer Berufung auf einem unvorhersagbaren „roten Rauschen“ bei der Fluktuation des ozeanischen Wärmegehaltes und im Strömungssystem (laut Modell 2055 und 2075!), um zu versuchen, die Daten während Perioden mit Datenlücken zu erklären, die der projizierten anthropogenen Erwärmung durch GHGs widersprechen!
Sollte dies tatsächlich die Lage sein, ist es wirklich unmöglich, Klimaänderungen für wenigstens einige Dekaden vorherzusagen. Der praktische Nutzen dieser Art von GCMs ist begrenzt und potentiell sehr irreführend, weil das Modell eine 10-jährige Erwärmung vorhersagen kann, während das „rote Rauschen“ der Dynamik des Klimasystems die projizierte Verteilung komplett verändert!
Tatsache ist, dass die obigen ad hoc-Erklärungen in Konflikt zu stehen scheinen mit der Dynamik des Klimasystems, wie es seit 1850 offensichtlich ist. Tatsächlich legt diese Dynamik eine wesentliche multipel-harmonische Komponente beim Klima nahe, deren Ursache wahrscheinlich astronomischen Ursprungs ist (Sonne + Mond + Planeten), obwohl dies physikalisch noch nicht vollständig verstanden ist. Diese Komponente kann auch das Klima nach 2000 ziemlich befriedigend erklären, wie die obigen Abbildungen zeigen (selbst unter Verwendung meines Modells, kalibriert von 1850 bis 1950, das sind mehr als 50 Jahre vor der beobachteten Aufzeichnungslücke seit 2000!)
Vielleicht kann es eine neue Art von Klimamodell, zumindest teilweise auf einer empirischen Rekonstruktion des Klimas, konstruiert aus empirisch bestimmten natürlichen Zyklen, wirklich besser, hätte bessere Vorhersagemöglichkeiten und das als Folge nützlicher für die Gesellschaft sein könnte als die gegenwärtig vom IPCC übernommenen GCMs.
Braucht man also eine Art kopernikanische Revolution in der Forschung zur Klimaänderung, wie auch Alan Carlin vorgeschlagen hat?
Ich persönlich glaube, dass es dringend notwendig ist, mehr in wissenschaftliche Methoden alternativ zu den traditionellen GCMs zu investieren und auch allgemein mehr in die reine Klimaforschung, und nicht nur in die GCM-Forschung, wie es bisher war aufgrund der falschen Behauptung, dass solche Investitionen in die reine Wissenschaft nicht mehr nötig sind, weil sich „die Wissenschaft schon einig ist“.
Bezüglich des anderen allgemeinen AGW-Slogans, demzufolge die gegenwärtigen Mainstream-AGW-Wissenschaft nicht mehr in Frage gestellt werden kann, weil sie auf einem sog. „wissenschaftlichen Konsens“ beruht, möchte ich nachdrücklich anregen, dass jeder diesen Beitrag von Kevin Rice liest, und zwar auf dem Blog Catholibertarian mit dem Titel “On the dangerous naivety of uncritical acceptance of the scientific consensus”.
Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models” Journal of Atmospheric and Solar-Terrestrial Physics (2011).
http://www.sciencedirect.com/science/article/pii/S1364682611003385
http://scienceandpublicpolicy.org/reprint/astronomical_harmonics_testing.html
Abstract:
Wir vergleichen den Aussagegehalt eines kürzlich vorgeschlagenen empirischen Klimamodells, das auf astronomischen Schwingungen im Vergleich zu allen gegenwärtig verfügbaren und vom IPCC verwendeten CMIP3-Klimamodellen zur allgemeinen Zirkulation (GCM) basiert, um den Verlauf der globalen Temperatur während des 20. Jahrhunderts zu interpretieren. Das vorgeschlagene astronomische empirische Klimamodell nimmt an, dass das Klima in Resonanz steht oder synchronisiert ist mit einer Reihe von natürlichen Schwingungen, die in früheren Studien (Scafetta 2010b, 2011b) mit dem Sonnensystem und den Planetenbewegungen assoziiert worden sind, dominiert zumeist von Jupiter und Saturn. Wir zeigen, dass die GCMs die wesentlichen dekadischen und multidekadischen Oszillationen der globalen Temperaturaufzeichnungen von 1850 bis 2011 nicht reproduzieren können. Im Gegenteil hat sich herausgestellt, dass das vorgestellte harmonische Modell (welches hier Perioden von 9,1; 10-10,5; 20-21; 60-62 Jahren nutzt) dies sehr gut kann, und es wird gezeigt, dass es in der Lage ist, die Klimaoszillationen von 1950 bis 2011 vorherzusagen unter Verwendung der Daten von 1850 bis 1950, und umgekehrt. Es wird gezeigt, dass der 9,1-jährige Zyklus wahrscheinlich zusammenhängt mit einer dekadischen Sonne/Mond-Tidenoszillation, während die anderen drei Zyklen synchron mit solaren und heliosphärischen planetarischen Oszillationen laufen. Wir zeigen, dass die Behauptung der GCMs des IPCC, dass nämlich die gesamte Erwärmung von 1970 bis 2000 anthropogen induziert worden ist, irreführend ist wegen des Scheiterns der GCMs, die 20- und 60-jährigen Klimazyklen zu reproduzieren. Schließlich zeigen wir, wie die Gegenwart dieser großen natürlichen Klimazyklen benutzt werden kann, um den vom IPCC projizierten Erwärmungstrend für das 21. Jahrhundert zu korrigieren. Wenn dieser korrigierte Trend mit natürlichen Zyklen kombiniert wird, zeigen wir, dass die Temperatur während der nächsten 30 Jahre nicht signifikant zunehmen wird, hauptsächlich wegen der negativen Phase des 60-jährigen Zyklus’. Wenn multisäkulare [?] natürliche Zyklen (welche einigen Autoren zufolge signifikant zu der beobachteten Erwärmung von 1700 bis 2010 beigetragen haben und die zu einer zusätzlichen natürlichen Abkühlung bis 2100 beitragen können) ignoriert werden, würden die gleichen vom IPCC projizierten anthropogenen Emissionen eine Erwärmung um etwa 0,3°C bis 1,2°C bis 2100 ergeben, im Gegensatz zu den IPCC-Projektionen von 1,0°C bis 3,6°C Erwärmung. Die Ergebnisse dieser Studie belegen frühere Behauptungen, dass die relevanten physikalischen Mechanismen, die die beobachteten Klimazyklen erklären können, in den gegenwärtigen GCMs immer noch fehlen und dass Klimaänderungen in multidekadischen Zeiträumen astronomisch induziert sind und in erster Näherung vorhergesagt werden können.
Von Dr. Nicola Scafetta
Link: http://wattsupwiththat.com/2012/01/09/scaffeta-on-his-latest-paper-harmonic-climate-model-versus-the-ipcc-general-circulation-climate-models/
Übersetzt von Chris Frey für EIKE




Offshore-Windpark “Bard 1″ westlich von Sylt wird zum Milliardengrab- Gaskraftwerke in Bayern rechnen sich nicht

Wie die Internetseite JustSylt nach Capital berichtet entwickelt sich für die umstrittene HypoVereinsbank (HVB) der Offshore-Windpark “Bard 1″ zum Milliardengrab.
Und das Wirtschaftsmagazin ‘Capital’ (Ausgabe 02/2012, EVT 19. Januar) berichtet, das die Unicredit-Tochter die Risikovorsorge für drohende Verluste aus dem sich verzögernden Projekt um knapp 70 Prozent auf 710 Millionen Euro aufgestockt hat.
Bereits im August 2011 hatte die Bank eine zusätzliche Kreditlinie von 860 Millionen Euro gewährt. Die bislang geheim gehaltenen Zahlen musste die HVB jetzt wegen der milliardenschweren Kapitalerhöhung der italienischen Mutter Unicredit Anfang Januar im Börsenprospekt offenlegen.
Bankintern werden die Kosten des in der Nordsee liegenden Windparks inzwischen auf 2,9 Milliarden Euro geschätzt. Diese werden zunächst komplett von der HVB getragen, da die Bank der einzige Finanzierer des Projekts ist. Der mögliche Verkaufserlös, wenn der Park fertig gebaut ist, beläuft sich Brancheninsidern zufolge auf weniger als zwei Milliarden Euro.
Der 2009 gestartete Bau des Riesenkraftwerks mit 80 Windrädern und 400 Megawatt Leistung liegt wegen technischer Schwierigkeiten mehr als zwei Jahre hinter dem Zeitplan zurück. Bislang sind in dem Windpark, der 2011 ans Netz hätte gehen sollen, erst 19 Turbinen installiert. Die HVB hatte 2007 den Kredit für das Projekt zugesagt, ohne dass es Eigenkapitalgeber gab. Die Stadtwerke, die eigentlich einsteigen wollten, haben die Verträge nie unterschrieben.

Süddeutschland findet keine Gasinvestoren

In Bayern und Baden-Württemberg soll Atomstrom durch Gaskraftwerke ersetzt werden. Doch die Länder finden dafür keine Geldgeber – nun sind Teile der Energiewende in Gefahr.

Bayern, wirtschaftlich sehr erfolgreiches Bundesland, dessen Strombedarf zu 58 % aus Kernkraftwerken stammte und das bisher von landschaftsverschandelnden Solar und Windkraftanlagen weitgehend verschont blieb, muss nun erkennen, dass die irrwitzigen Blütenträume der Energiewende auch in diesem Bundesland nicht reifen. Wegen des Atomausstiegs der schwarz-gelben Regierung unter Beteiligung der CSU müssen nun schnellstens Ersatzkraftwerke her. Mit Gas befeuert, was denn sonst. Doch, die Investoren wollen die nicht bezahlen. Sie rechnen sich nicht! It´s the economy, stupid!
So schreibt die FTD am 19.1.12

In Süddeutschland brauchen wir dringend zuverlässigen Ersatz für die Kernkraftwerke", sagte der bayerische Wirtschaftsminister Martin Zeil (FDP) der FTD. "Doch das Problem in den Gesprächen mit den Investoren ist immer wieder die mangelnde Rentabilität." In den vergangenen Monaten hat Bayerns Staatsregierung etwa Gespräche mit dem russischen Gaskonzern Gazprom geführt, allerdings ergebnislos. "Gazprom ist sehr interessiert, wartet aber noch ab", sagte Zeil."

und im grünen Baden-Würtemberg sieht die Situation nicht anders aus:
Wieder die FTD

In Süddeutschland gerät die Energiewende damit zunehmend in Gefahr. Die Region leidet am stärksten unter dem Atom-Aus.

Der Südwesten hat das gleiche Problem wie Bayern. "Es gibt in Baden-Württemberg keine Anreize für neue Kraftwerke", sagte der baden-württembergische Umweltminister Franz Untersteller (Grüne)…

natürlich hat der grüne Minister Untersteller auch gleich einen Lösungsvorschlag für dieses Problem. Nein, nicht was vernünftige Leute tun würden, nämlich das EEG abzuschaffen und den Atomausstieg zurückzunehmen…nein, er schlägt einen neuen Fördertatbestand vor: nämlich…

…ein Modell für einen bundesweiten Fördermechanismus (vor), der Kraftwerke einfach für ihr Vorhandensein bezahlt. Demnach solle bei der Netzplanung ein für die Versorgungssicherheit nötiger Mindestkraftwerkspark definiert werden.

Vielleicht lautet der Wahlspruch der sonst findigen Baden-Württemberger bald so:

Wir können alles – außer rechnen!

Und Bayern zahlte bisher, ob seines Erfolges mehr als 50 % des Gesamtbetrages in den "Länderfinanzausgleich" ein, Baden-Württemberg und Hessen den Rest. Das wird nicht so bleiben, aber dass ist unser kleinstes Problem. Ein kleiner Lichtblick ist das bankrotte aber trotzdem sonnige Spanien. Dort will man bald Politiker die zu viele Schulden machen ins Gefängnis stecken.
die Redaktion
Quellen: JustSylt mit Dank an Gegenwind Dr. Zielinski und Leser Demmig für Hiweise auf die FTD (links dazu im Text)




Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Robert G. Brown, Duke University

Die Erde hat nur eine Absorptionsfläche, die einer zweidimensionalen Scheibe gleicht, nicht einer Kugeloberfläche.
Eine halbe Nacht lang habe ich im Lern-Halbschlaf über dem Buch von Caballero zum Thema des Strahlungstransfers gebrütet und bin zu zwei Einsichten gekommen:
Erstens: das Grundmodell des Schwarzkörpers (es führt zu T_b = 255K) ist physikalisch ein schreckliches Grundmodell. Es behandelt den Planeten wie einen nicht rotierenden Wärme-Supraleiter ohne Wärmekapazität. Warum das so schrecklich ist? Weil es absolut falsch ist, 33K als Treibhauserwärmung in Bezug auf den Ausgangswert zu setzen. Dieser Ausgangswert ist ein völlig unphysikalischer Ausgangswert.
Zweitens, die 33K bedeuten nichts. Sie werfen Erwärmungs- und Abkühlungseffekte zusammen, absolut nichts mit dem Treibhauseffekt zu tun haben. Mehr dazu später.
Jetzt verstehe ich den Treibhauseffekt viel besser. Ich möchte das jetzt mit meinen eigenen Worten schreiben, weil mir einige von Caballeros Aussagen nicht gefallen, und weil ich denke, dass meine Darstellung einfacher und einleuchtender ist. Ich denke auch daran, sie vielleicht später für einen Modellbausatz zu verwenden, von der Art, wie man sie als Lernspielzeuge kaufen kann.
Fangen wir mit einer nicht rotierenden supraleitenden Kugel an, null Albedo, einheitliche Emissivität, vollständige Schwarzkörper-Strahlung von jedem Punkt der Kugel. Wie hoch ist die Durchschnittstemperatur?
Jetzt behandeln wir die nicht rotierende Kugel als vollständigen Nicht-Leiter, dergestalt, dass sich ein Teil der Oberfläche im Strahlungsgleichgewicht befindet. Wie hoch ist die Durchschnittstemperatur jetzt? Das ist für den Mond ein besseres Modell als das vorhergehende, aber immer noch nicht gut genug. Verbessern wir es!
Wir geben der Oberfläche nun einige thermische Wärme-Kapazität – wir machen sie Wärme-supraleitend, aber nur in vertikaler Richtung und wir nehmen noch eine Masseschale von einiger Dicke an, die eine vernünftige spezifische Wärme hat. Das ändert am vorherigen Ergebnis nichts, solange wir die Kugel nicht rotieren lassen. Oho, nun erhalten wir doch eine andere durchschnittliche (Oberflächen-) Temperatur, diesmal ist es der sphärische Durchschnitt einer Verteilung, die von der sphärischen Breite abhängig ist. Dabei liegt die höchste Temperatur auf der Tagseite nahe beim Äquator kurz nach dem „Mittag“ (verzögert, weil es Zeit braucht, um die Temperatur jedes Blockes zu erhöhen, weil die Einstahlung den Schwarzkörper-Verlust übersteigt, und weil es Zeit zur Abkühlung braucht, weil der Schwarzkörper-Verlust die Strahlung übersteigt, und die Oberfläche hat niemals und nirgends eine konstante Temperatur außer an den Polen (ohne axiale Kippung). Das ist wahrscheinlich ein recht passendes Modell für den Mond, wenn man rückschreitend eine Albedo hinzufügt (damit wird der Anteil der hereinkommenden Energie vermindert, der thermisch ausbalanciert werden muss).
Man kann für jede dieser Veränderungen tatsächlich die exakte parametrische Temperatur-Verteilung errechnen als Funktion des sphärischen Winkels und des Radius, und (durch Integration) die Veränderung berechnen in z. B. der durchschnittlichen Temperatur aufgrund der Annahme eines vollständigen Schwarzkörpers. Beim Übergang von einem supraleitenden, aber im Übrigen perfekt isolierenden (nicht rotierenden), Planeten zu einer lokal detaillierten Balance fällt die nachtseitige Temperatur einfach von ½ der Kugel Ihrer Wahl von 3 K, oder von null K nach sehr langer Zeit (das ist leichter zu idealisieren). Das ist die untere Grenze, unabhängig von Sonneneinstrahlung oder Albedo (in diesem Sinne hier: der Emissivität). Die tagseitige Temperatur hat eine polare Verteilung, wobei ein Pol auf die Sonne blickt, sie variiert nicht-linear mit der Einstrahlung, Albedo, und (wenn Sie sie verändern wollen) mit der Emissivität.
Das vermaledeite T^4 verkompliziert alles! Ich möchte noch nicht einmal das Vorzeichen der Veränderung der Durchschnittstemperatur zuweisen, wenn ich vom ersten Modell zum zweiten übergehe! Jedesmal, wenn ich meine, ein gutes heuristisches Argument für die Aussage von einer niedrigeren Durchschnittstemperatur zu haben, sagt eine innere Stimme – T^4 – bilde lieber das verflixte Integral, weil die Temperatur im Übergangsbereich von der Tagseite her allmählich auf Null gehen muss. und da gibt es eine ganze Menge von geringer Einstrahlung in einem Gebiet (und daher mit niedriger Temperatur), wo die Sonne auf fünf Uhr steht, sogar mit null Albedo und der Emissivität von einer Einheit! Leicht ist nur, den sphärischen Durchschnitt zu erhalten: Wir nehmen einfach den sphärischen Tagseiten-Durchschnitt und teilen durch zwei.
Mit dem Vorzeichen für die rotierende Kugel bin ich auch nicht glücklich, weil es auf vom Zusammenspiel zwischen der erforderlichen Zeit zur Erwärmung der thermischen Last (engl: „thermal ballast“) abhängt, bei gegebener Differenz zwischen Einstrahlung und ausgehender Strahlung und der Rotationsrate. Wenn man mit unendlicher Geschwindigkeit rotieren lässt, ist man wieder bei der supraleitenden Kugel. Wenn man dazwischen rotieren lässt, und – verdammt noch mal – indem man nur die Größe der thermischen Last verändert (die thermische Last bestimmt die Thermisierungszeit), kann man es sogar so einrichten, dass sich eine rasch rotierende Kugel wie die statische nicht-leitende Kugel verhält, oder wie eine langsam rotierende (jeweils zwischen null Wärme-Kapazität und sehr hoher Wärme-Kapazität).
Schlimmer noch, wenn man die Geometrie der axialen Pole verändert (die noch in Bezug auf die Ekliptik als ungekippt angenommen werden). Während zuvor die Tag/Nacht Grenze sich allmählich an T = 0 von der Tagseite annäherte, gilt das nun nur noch an den Polen! Das Integral des polaren Gebietes (bei einem gegebenen Polarwinkel dtheta) ist viel kleiner als das Integral des Äquator-Winkels, und zudem hat man nun auch noch einen darüber verschmierten Satz von festen Temperaturen, die alle Funktionen des Azimut-Winkels phi und des Pol-Winkels theta sind, der verändert sich nicht-linear, wenn man einen der folgenden Parameter ändert: Einstrahlung, Albedo, Emissivität, omega (Winkelgeschwindigkeit der Rotation) und Wärmekapazität der Oberfläche.
Und dabei ist noch nicht einmal eine Atmospäre berücksichtigt! Oder Wasser. Aber wenigstens bis zu diesem Punkt kann man die Temperaturverteilungsrechnung T (theta,phi,alpha,S,epsilon,c) exakt lösen, denke ich.
Darüberhinaus kann man tatsächlich so etwas wie das Wasser recht gut modellieren. Wenn wir uns nun die Erde als mit einer Schicht von Wasser bedeckt anstelle von Luft vorstellen, mit einem Schwarzkörper auf dem Grund und einer dünnen Schicht einer völlig transparenten Frischhaltefolie drauf, um die vermaledeite Verdampfung zu verhindern, dann wird das Wasser zu einem Teil des thermischen Ballasts. Nun braucht es viel viel länger, um die Temperatur einer ein-Meter-dicken Wasserschicht (bei gegebenem Ungleichgewicht zwischen der einfallenden Strahlung) zu erhöhen oder zu vermindern, als die Temperatur im vielleicht oberen Zentimeter eines Felsens, von Dreck oder von Sand. Es dauert viel länger.
Wenn man das alles einigermaßen im Griff zu haben meint, könnte man das Modell mit Meeren und Landmassen füllen (aber immer noch den lateralen Energie-Transfer verbieten, und einen unmittelbaren vertikalen Ausgleich unterstellen). Man könnte dem Wasser die richtige Albedo zuschreiben und es beim Erreichen der richtigen Temperatur gefrieren lassen.
Danach wird es aber wirklich schwer.
Jetzt muss nämlich eine Atmosphäre dazukommen. Auch das noch!
Die Meere müssen Konvektionsfähigkeit erhalten, Dichte und unterschiedliche Tiefen. Und das alles auf einer rotierenden Kugel, wo alles was nach oben geht (Luftmassen) gegen die Erddrehung (relativ zur Oberfläche) abgelenkt wird, wo alles, was herunterkommt, in Richtung der Erddrehung angelenkt wird, was nach Norden geht auf der Nordhalbkugel in Drehrichtung abgelenkt wird (es wird schneller), was nach Süden geht, gegen die Drehrichtung abgelenkt wird, als Funktion von Winkel, Geschwindigkeit und Drehgeschwindigkeit. Verdammte Coriolis-Kraft, sie lenkt die Küstenartillerie ab, usw. Und jetzt erwärmen wir mal dieses verdammte Ding differentiell so, dass überall und über alle Entfernungen Turbulenzen vorkommen, für die wir kaum noch die einfachste Symmetrie für das differentielle Erwärmen haben. So ungefähr, wenn wir ein fünfjähriges Kind Farbe auf die Kugel spritzen lassen, um anzuzeigen, wo Landmassen und Ozeane sind, oder wir hätten ihm auch Spielzeuglastwagen geben und es im sphärischen Sandkasten spielen lassen können, bis eine schöne unregelmäßige Oberfläche entstanden wäre. Und diese Oberfläche hätten wir mit Wasser auffüllen können, bis die Oberfläche ungefähr zu 70 % unter Wasser gestanden hätte.
O weh! Mein armer Kopf raucht!
Wohlgemerkt – Wir haben immer noch keinen Treibhauseffekt dabei! Nur eine Heuristik für die Abkühlung durch Abstrahlung in einem idealen Zustand, der ist ganz wörtlich genommen destilliert; in Temperatur und Höhe aufgebrochen, noch ohne die Präsenz von CO2. Wolken. Luft verteilt sich mit nicht-trivialer kurzer Wellenlänge über den Querschnitt. Energietransfer satt!
Bevor wir uns nun mit dem CO2 auseinandersetzen, müssen wir die Quantenmechanik und das Inzidenzspektrum berücksichtigen, dazu auf die bislang ignorierten Details des Erdbodens, der Luft und des Wassers blicken. Für die Luft brauchen wir einen Temperatur-Gradienten, der sich mit der Feuchtigkeit, der Albedo, der Bodentemperatur verändert, usw. … Die Luftmoleküle üben einen Rückstoß aus, wenn sie die einfallenden Photonen verteilen, und wenn es eine Kollision mit einem anderen Luftmolekül im rechten Zeitintervall gibt, werden sie beide einen Teil oder die gesamte Energie absorbieren und die Luft erwärmen, anstatt sie elastisch zu verteilen. Ein Molekül kann auch eine Wellenlänge absorbieren und eine Kaskade von Photonen mit einer anderen Wellenlänge emittieren (abhängig von seinem Spektrum).
Und zum Schluss müssen die Treibhausgase dazukommen, vor allem CO2, (Wasser ist schon drin). Sie bewirken eine Zunahme der ausgehenden Strahlung von der (wärmeren) Oberfläche in einigen Bändern und transferieren etwas davon auf das CO2, wo sie eingefangen bleibt, bis sie zur Spitze der CO2-Säule diffundiert ist, von wo sie mit kühlerer Temperatur emittiert wird. Die gesamte hinausgehende Kraft wird auf diese Weise aufgespalten, dabei wird das vermaledeite Schwarzkörperspektrum so moduliert, dass verschiedene Frequenzen verschiedene Wirktemperaturen haben, lokal moduliert – von nahezu allem. Temperaturgradient, Feuchtigkeitsgehalt. Wolken. Massentransport von Wärme nach oben oder unten qua Konvektion! Massentransport von Wärme nach oben oder unten qua eingefangener Strahlung in Teilen des Spektrums. Und bitte nicht die Umgehungen vergessen! Alles fließt jetzt, Wind und Verdampfung sind gekoppelt, die Zeitdauer für den Temperaturausgleich des Meeres erstreckt sich nun von „im gleichen Maß wie die Rotationsperiode“ für flache Meere bis zu tausend oder mehr Jahren. Der Ozean ist niemals im ausgeglichenen Zustand, er zieht immer an den Oberflächentemperaturen in die eine oder andere Richtung mit nennenswerter thermischer Last, die Wärme wird nicht für einen Tag, sondern für eine Woche, einen Monat, ein Jahr, eine Dekade, ein Jahrhundert, ein Jahrtausend gespeichert.
Jawohl, eine verdammt harte Nuß! Wer auch immer so etwas „gesichertes Wissen“ (settled science) nennt, muss wirklich nicht mehr ganz bei Trost sein.
Wohlgemerkt: ich habe noch nicht den solaren Magnetismus oder ernsthaftere Modulationen der Sonneneinstrahlung einbezogen, noch nicht die Neigung der Erdachse, die noch einmal alles verändert, weil damit die Zeitskalen an den Polen jährliche werden, Nord- und Südpol sind überhaupt nicht gleich. Man beachte die enormen Unterschiede ihrer thermischen Last und den ozeanischen und atmosphärischen Wärmetransport!
Eine harte Nuß. Vielleicht nehme ich sie mir einmal zum Knacken vor, wenn ich Zeit habe, wenigstens für die ersten wenigen Schritte zu Anfang. Ich möchte zumindest eine bessere Vorstellung von der Richtung der ersten kleinen Schritte gewinnen zum Bau eines Spielzeug-Modells für die Durchschnittstemperatur. (Der Begriff „Durchschnittstemperatur“ meint hier etwas Bestimmtes, nämlich bevor das System chaotisch gemacht wird).
Dr. Robert Brown
Der Aufsatz führte auf WUWT zu einer Diskussion mit derzeit über 430 Beiträgen, die wegen des Umfangs leider nicht mehr übersetzt werden können. Wer sich für die Diskussion interessiert, möge die Beiträge und das Original hier lesen.
Übersetzung: Helmut Jäger, EIKE




Der Wärmeinseleffekt (WI) als maßgeblicher Treiber der Temperaturen

Der WI lässt sich dabei in einen aktiven und einen passiven Teil aufteilen. Der aktive Teil ist der durch Zivilisationseinflüsse zusätzlich eingebrachte Energieeintrag in einen Raum. So ist allseits bekannt, dass es in der Stadt wärmer ist, als auf dem Land. Dies liegt zum einen an zusätzlich ausgebrachter Wärme durch Heizungen und Verkehr (aktiv) und/oder durch Bebauung (passiv). Dieser passive Teil ist jedoch nicht nur bei Temperaturmessstationen in der Stadt, sondern vor allem auch auf dem Land zu berücksichtigen, da durch die Kultivierung der Landschaft, sich Deutschland in den letzten 100 Jahren in der Fläche mehr änderte, als dies durch die Städtisierung erfolgte. Durch die Umwandlung von Waldgebieten (1 Quadratkilometer Buchenwald verdunstet z.B. jeden Tag 2 Millionen Liter Wasser) und Feuchtgebieten, sinkt die Verdunstungsrate dramatisch, was, da Verdunstung immer mit einer Kühlung einhergeht (auf diesem Prinzip funktioniert eine Klimaanlage), die Temperatur künstlich in die Höhe treibt. Auch ist durch die Abholzung von Waldgebieten, der Sonnenschirm sozusagen weg und die Sonnenstrahlen können nun direkt bis zum Boden gelangen und diesen großflächig aufwärmen. Von Regenwaldgebieten ist der Temperaturunterschied von Vorher zu Nachher bekannt und beträgt +16°C!
Der Wärmeinseleffekt ist also keine konstante Größe einer Station, sondern er ist, wie aus den obigen Schilderungen leicht verständlich, eine dynamische, mit der Veränderung des Raums (und der Zivilisationseinflüsse), sich mit ändernde Größe.
So ist es beim Wärmeinseleffekt  gar nicht notwendig, dass Messstationen zunehmend in die Stadt verlegt werden müssen, die Stadt kommt vielmehr zur Messstation durch die ständige Ausuferung der Bebauung. Nicht nur Gebäude, sondern Straßen, Beleuchtungen, Heizungen, Kraftwerke, Industrie- und Gewerbegebiete breiten sich täglich aus. Laut Angaben des Statistischen Bundesamtes betrug der Flächenverbrauch in Deutschland zwischen 2005 und 2008 im Durchschnitt 107 ha pro Tag.  In Baden-Württemberg beispielsweise im Jahr 2009 allein 7 ha pro Tag. Bei jedem neuen Bauwerk ist die Natur der Verlierer. Und der WI nimmt zu, weil weiträumige Wärmeinseln neu geschaffen werden.

Abbildung 1: Temperaturgang für Deutschland, Datenquelle: DWD. Bei einem Vergleich über die letzten 12 Jahre macht sich der Wärmeinseleffekt noch kaum bemerkbar. Man kann die Temperaturen direkt vergleichen. Das ist nicht möglich, wenn man größere Zeiträume vergleicht.
Völlig unberücksichtigt blieb bislang in der wissenschaftlichen Betrachtung zum WI die bereits erwähnte enorme Trockenlegung der freien Landschaft in den letzen 50 Jahren durch Sickerungsgräben entlang der Straßen und Feldwege, durch Drainagen und zigtausende Kilometer an (gelben) Sickerschläuchen, wodurch sich die physikalischen Eigenschaften des Erdbodens verändern. Das Regenwasser fließt schneller ab, die Verdunstungsrate der freien Landschaft und damit die Kühlung haben abgenommen und nehmen ständig weiter ab. Abnahme der Kühlung bedeutet umgekehrt ein Anstieg der Erwärmung. So steigt der Wärmeinseleffekt weltweit, verursacht durch gut 7 Milliarden Menschen von Jahr zu Jahr an.
Die Aussage des Deutschen Wetterdienstes, Offenbach: Auch früher habe es den WI schon gegeben, deshalb kann man ihn unberücksichtigt lassen, ist denn rundum falsch. Richtig an der Aussage ist nur, dass auch früher (z.B. vor 100 Jahren) ein WI vorhanden war, der Wert aber deutlich geringer war. Durch die fortschreitende Kultivierung der Landschaft und der vom statistischen Bundesamt genannten Zahlen, vergrößert sich der Wärmeinseleffekt von Jahr zu Jahr. Vor allem in den Alpen macht sich der WI stark bemerkbar, denn dort ist in den letzten 50 Jahren der Eingriff in die Natur, verstärkt durch das Anschwellen der Touristenströme, am größten. Bestes Beispiel ist die DWD-Messstation auf der Zugspitze, die für Temperaturvergleichsbetrachtungen wertlos ist, da sie in einer Touristenhochburg mit starker Bebauung liegt. Zudem steigt die Warmluft der Täler nach oben und damit auch die Vegetationszonen. Übrigens hat die in der Presse so oft zu hörende alpine Gletscherschmelze nichts mit menschengemachten Einflüssen zu tun, sondern basiert auf der AMO (Temperaturschwingung des Atlantikwassers) und diese wird von der Sonne bestimmt, wie die folgende Abbildung zeigt.

Abbildung 2 (Quelle: Slupetzky, 2005, Uni Salzburg) zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Dies bestätigt auch die ETH Zürich: “Alpen-Gletscherschmelze von Atlantikströmung beeinflusst?“, Geophysical Research Letters (2010), 37, L10501. Die Untersuchungen anhand von 30 Gletschern zeige, dass die Massenbilanz der Schweizer Gletscher mit der AMO korreliere, so die Forscher. Und weiter “Es zeigte sich, dass die AMO die Perioden besonders markanter Gletscherrückgänge, wie etwa in den 1940ern und seit den 1980ern, so wie Stagnation oder Zuwachs in den 1910er und 1970er Jahren, erklären kann.“
Nach diesem Exkurs wieder zum WI. Fazit: Ein direkter Temperaturvergleich von heute und vor 120 Jahren ist bei keiner Station möglich. Das ist unseriös und führt zu falschen Ergebnissen. Man müsste vom heutigen Temperatur-Wert einen Korrekturfaktor abziehen, eben den Wärmeinseleffekt. Für den Frankfurter Großflughafen beträgt der Faktor z.B. +2,5°C, denn die Klimastation steht neben der Startbahn im Strahle der heißen Abgase. Vor 100 Jahren war dort noch Wald und der Boden nicht trocken gelegt, so wie heute. Im Schnitt der 2100 Stationen Deutschlands beträgt der  WI etwa 0,1 Grad je Jahrzehnt. Die untere Linie ist zugleich der Korrekturfaktor bei Vergleichen mit früher.

Abbildung 3, Rot: Gemessene Temperaturreihe ohne Berücksichtigung des WI (dient zur jeweiligen Temperaturaussage, ist jedoch für Vergleichsbetrachtungen ungeeignet).
Blau: WI-bereinigte Vergleichstemperaturkurve (dient nicht zur Temperaturaussage, stellt jedoch die richtigen Vergleichsbedingungen und damit richtigen Vergleiche dar).
Weitere Erklärungen und Begründungen dieser Grafik, siehe:
http://www.eike-klima-energie.eu/news-anzeige/der-waermeinseleffekt-wi-als-antrieb-der-temperaturen-eine-wertung-der-dwd-temperaturmessstationen/
http://www.eike-klima-energie.eu/news-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert
http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/
Die Kurzfassung dieser drei wissenschaftlichen Artikel finden Sie hier:
http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/
WI-bereinigte Daten heißt:
1)      Die Zivilisationsveränderungen durch den Menschen sind erfasst.
2)      Die Änderungen des Raumes durch die Zeit werden berücksichtigt.
Der reale Temperaturvergleich Deutschlands über die letzten 120 Jahre sieht WI-bereinigt so aus:

Abbildung 4: Auch die um den Wärmeinseleffekt korrigierten Deutschlandwerte zeigen:
(an der blauen gestrichelten Durchschnittlinie sieht man), dass zwischen 1960 und 1985 ein „Temperaturloch“ (Kaltzeit, vergleiche, die in den 1970-Jahren in Politik, Presse und Wissenschaft kursierende Furcht einer anstehenden Eiszeit) in Deutschland war und dann die Jahresmittelwerte bis zum Jahre 2000 ständig gestiegen sind. Seit über einem Jahrzehnt sinken die Temperaturen erneut, und zwar deutschland- und auch weltweit.
Zum Abschluss der Deutschlandbetrachtung eine Station, die nur einen geringen WI (WI-los ist praktisch keine Landstation, da keine Messstation und Messbedingung heute wie vor 100 Jahren ist) hat. Dies ist die DWD-Messstation auf dem Hohenpeißenberg (HPB).

Abbildung 5 zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends).
Diese Schwingung stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte. Wie der Hauptsonnenzyklus nicht nur bei uns, sondern z.B. auch die arktische Meereisbedeckung bestimmt, hat Prof. Mörner (bis 2003 Präsident der INQUA, International Union for Quaternary Research) ermittelt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 6, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre, entgegen den Computerspielen der ACIA, eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Die letzte Kaltphase um 1900 wurde übrigens der RMS Titanic zum Verhängnis, als auf ihrer vergleichsweise südlichen Route Eisberge auftauchten, mit denen „normalerweise“ (in wärmeren Zeiten) niemand dort rechnete, wie Abbildung 7 zeigt.
 
Abbildung 7, Quelle:  Joanna D. Haigh, Blackett Laboratory, Imperial College London, zeigt die Anzahl der Sonnenflecken und das Eisbergaufkommen am Breitengrad 48 Nord. Insbesondere zwischen 1900 und 1914 drangen Eisberge weit nach Süden vor. Weiter, als üblich. In diesem Zeitraum hatte der Hauptsonnenzyklus sein Minimum und die solare Aktivität war entsprechend gering, was zum einen die Meerestemperatur senkte (siehe AMO) und zum anderen das arktische Eisvolumen verstärkte (siehe obige Untersuchungen von Dr. Mörner). Rechts: Zeitgenössiges Gemälde.
In größeren Ländern als Deutschland, wie z.B. den USA, auf denen wegen der Flächengröße noch Gebiete mit sehr geringem menschlichen Einfluss zu finden sind, wird schnell deutlich, wie stark der WI in urbanisierten Gebieten wirkt. Denn dort sind Messstationen zu finden, wo die Raumveränderung durch die Zeit gering und damit der WI gering ist. Eine solche Station, die praktisch keinen Wärmeinseleffekt hat, da die Umgebung fast keine Veränderung erfahren hat, ist „Dale Enterprise Virginia“. So kann es niemanden mehr überraschen, dass dort bei den real gemessenen Temperaturen der gleiche Verlauf zu sehen ist, wie bei den WI-bereinigten Temperaturen für Deutschland. Ohne den geringen Wärmeinseleffekt hätte es in den letzten 100 Jahren überhaupt keine Erwärmung gegeben, Stand 2010, da der geringe, sonnenbasierte Temperaturanstieg gegen Ende des 20. Jahrhunderts, mittlerweile, durch die zurückgehenden Temperaturen aufgebraucht ist. Der WI ist somit der primäre Temperaturtreiber in den letzten 100 Jahren, was bei einem WI-Wert für Deutschland von ca. +1,2°C, gegenüber der sonnenbasierten Erwärmung von ca. +0,6°C im 20. Jahrhundert, offensichtlich wird.

Abbildung 8, Quelle: http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station zeigt den Temperaturgang der Messstation Dale Enterprise Virginia.
Nun kann zurecht eingewendet werden, dass eine einzige Station, die nur regional „ihr“ Temperaturprofil abdeckt, kein hinreichender Beleg dafür ist, dass die vom DWD und der WMO herausgegebenen Temperaturreihen für Vergleichsbetrachtungen wertlos sind und die EIKE-Vergleichstemperaturreihe die korrektere Sichtweise abbildet. Daher soll zum Abschluss der Bereich der Erde betrachtet werden, der die größte Fläche und die geringste Bebauung aufweist – die Meeresflächen. Beginnend mit der bereits erwähnten AMO (Atlantic Multidecadal Oscillation).

Abbildung 9 zeigt die Abweichungen der Oberflächentemperatur im Nordatlantik (Quelle: NOAA), dazu eingezeichnet, die natürliche Schwingung der AMO von gut 60 Jahren, die auf die Sonne zurück zu führen ist. Abbildung 9 zeigt deutlich keinen Temperaturtrend. Gleiches Bild im Pazifik.

Abbildung 10 zeigt die Wassertemperaturen (Abweichungen vom Mittelwert, Datenquelle, ebenfalls NOAA) im Pazifik. Auch hier: kein Temperaturtrend. Ebenso im Nordpazifik (Abbildung 11).

Abbildung 11: Temperaturgang (Abweichungen vom Mittelwert) im Nordpazifik (PDO – Pacific Multidecadal Oscillation). Auch hier kein Temperaturtrend, sondern Schwingcharakter. Ebenso ist im Südatlantik kein Temperaturtrend zu sehen (Abbildung 12).

Abbildung 12: Meerestemperatur (wie oben) im Südatlantik. Der Temperaturgang spricht für sich. Auch bei den globalen Meerestemperaturen lassen die Temperaturschwankungen keinen steigenden Trend erkennen (Abbildung 13).

Abbildung 13: Temperaturabweichungen der globalen Meerestemperaturen (blau).
Da die obigen Wassertemperaturen „lediglich“ mehrere Jahrzehnte abdecken, ein Blick über die letzten 1.000 – 2.000 Jahre.

Abbildung 14 (http://www.abd.org.uk/pr/274.htm) zeigt die mittlere Oberflächentemperatur der letzten 1.100 Jahre. Deutlich ist ein Schwingungsmuster von ca. 1.000 Jahren zu sehen. Ca. alle 500 Jahre wechseln sich Warm-und Kaltzeiten ab, was auf die variable Sonne zurück zu führen ist. Um 1650 (Kleine Eiszeit) waren die tiefsten Temperaturen im Betrachtungszeitraum und im 13. Jahrhundert die höchsten. Dies stimmt weitgehend mit dem Schwankungsmuster des Meeresspiegels aus K.-E. Behre, “Probleme der Küstenforschung“, Band 28, überein.
Wie Abbildung 14 deutlich zeigt, war die Temperatur während des Klimaoptimums im Mittelalter deutlich höher als heute. Dies legt den Schluss nahe, dass auch der Meeresspiegel seinerzeit höher als heute war (thermische Ausdehnung).

Abbildung 15 zeigt die globalen Meeresspiegelschwankungen der letzten 1.800 Jahre nach Aslak Grinsted, Moberg et al., 2005 und Jevrejeva, 2006, Quelle: (http://www.c3headlines.com/). Um das Jahr 1200 lag im Betrachtungszeitraum der höchste Wert, deutlich über dem heutigen. Seit dem Klimaminimum der “Kleinen Eiszeit“ (rote Linie), steigt der Meeresspiegel wieder global an.
In der mittelalterlichen Warmzeit lagen der globale Meeresspiegel und die globale Meerestemperatur höher als heute (siehe auch http://www.oism.org/pproject/s33p36.htm#Message5976). Trotzdem lag z.B. Holland nicht 7 m unter Wasser, wie dies noch jüngst von Klimaalarmisten des AWI bei weiterer Erwärmung zu hören war. Dies zeigt, was von solchen Horrorszenarien, die gebetsmühlengleich von einigen Instituten verbreitet werden, zu halten ist.
Fazit:
Während die unbebauten und WI-losen Flächen der Erde, die Meeresflächen, keinen Temperaturtrend erkennen lassen und somit das gleiche Bild liefern, wie die gezeigte Station in Virginia (Abbildung 7), sowie die von EIKE ermittelte, richtige WI-Temperaturvergleichskurve für Deutschland (Abbildung 3 und 4) , muss davon ausgegangen werden, dass sowohl die DWD-Temperaturreihe, als auch die von der WMO jährlich veröffentlichte Globaltemperaturreihe für Vergleichsbetrachtungen wertlos sind, da dort der WI die gemessenen Temperaturen in die Höhe treibt und Vergleiche zu früheren Temperaturen damit sinnlos macht, was nicht verwundern kann, befinden sich über 50% der weltweiten Temperaturmessstationen auf Flughäfen und damit im Strahle der heißen Flugzeugabgase. DWD und besonders die WMO, weisen denn mit ihren Temperaturreihen nichts anderes aus, als die Zunahme des weltweiten Luftverkehrs. Ob zu dieser (richtigen) Erkenntnis jedoch ein teures Netz von Temperaturmessstationen notwendig ist, darf bezweifelt werden.
Raimund Leistenschneider – EIKE
Josef Kowatsch – Hüttlingen




Energiewende wirkt: Jeder fünfte Industriebetrieb verlegt Aktivitäten ins Ausland, oder plant dies!

Nicht die Eurokrise, sondern steigende Energiepreise nennen die Unternehmen als ihr größtes Problem: 86 Prozent befürchten, dass sie für ihr Geschäft an Bedeutung gewinnen. Mehr als der Hälfte machen mögliche Stromausfälle oder Spannungsschwankungen Sorgen….hier weiterlesen
Wie auch Prof. Ameling gegenüber dem Minister Ramsauer anläßlich des 4. Energiepoltischen Dialog der CDU/CSU Bundestagsfraktion ausführte, bedeutet die "Energiewende" den Untergang der energieintensiven Industrie in Deutschland. Minister Ramsauer verwies als Antwort auf seinen Kollegen Rösler von der FDP, der dafür zuständig sei, erklärte aber gleichzeitig auch dass Übertreibungen vermieden werden müssten. Was immer das bedeutet!
Die Redaktion