Geoengineering: Zauberlehrlinge in den Startlöchern: Klima-Klempner setzen auf Plan B zur Weltrettung

Schon vor Jahren regte Chemienobelpreisträger Paul J. Crutzen an, mithilfe von Satelliten, Heißluftballons oder Großflugzeugen Millionen Tonnen Schwefel- und Aluminium-Aerosole oder auch Nanopartikel in der Stratosphäre zu versprühen, um die Luft zu trüben oder die Wolkenbildung zu verstärken und dadurch einen größeren Teil des Sonnenlichts ins All zu reflektieren. Damit sollte die zur größten Gefahr erklärte Erderwärmung durch den „CO2-Treibhauseffekt“ aufgehalten werden. (Wer nach „Geoengineering“ googelt, stößt übrigens unvermittelt auch auf das Stichwort „Chemtrails“ und damit auf die Vermutung, einige der vorgeschlagenen Techniken zur Trübung der Erdatmosphäre würden längst erprobt.)
 Andere Wissenschaftler, angeführt vom US-Klimaforscher Alan Robock, warnen jedoch vor unerwünschten Nebenwirkungen. Denn Schwefel-Aerosole können die Ozonschicht schädigen, die uns vor ultravioletten Strahlen schützt, und auf der Erde sauren Regen niedergehen lassen. Obendrein sind sie eindeutig gesundheitsschädlich. Deshalb wurden in Europa Kohlekraftwerke mit aufwändigen Filtern ausgerüstet, um das giftige Schwefeldioxid in Gips zu binden. Es wäre ein Treppenwitz der Geschichte, würde man die bisherigen Erfolge im Umweltschutz wieder aufs Spiel setzen, um einer rein hypothetischen Gefahr zu begegnen. Denn kaum etwas spricht derzeit dafür, dass sich die im 20. Jahrhundert registrierte leichte globale Erwärmung im 21. Jahrhundert fortsetzt.
 Eine vor kurzem im Wissenschaftsmagazin „Science“ veröffentlichte Studie eines Teams von 24 NASA-Experten empfiehlt dagegen andere Maßnahmen, die gleichzeitig die Atemluft gesünder machen würden. Und zwar die Eindämmung des Ausstoßes des „Treibhausgases“ Methan mithilfe der Abdichtung von Lecks im Bergbau, bei der Förderung und beim Transport von Erdgas und beim Betrieb von Mülldeponien sowie das Trockenlegen von Reisplantagen und eine Verminderung der Pupser von Wiederkäuern. Das zweite vorgeschlagene Maßnahmenbündel betrifft die Verminderung des Rußausstoßes durch den Einbau von Rußfiltern in Dieselfahrzeuge, die Verminderung des Abbrennens abgeernteter Felder und der Brandrodung sowie die Verbreitung moderner Kochöfen in armen Ländern. Man fragt sich allerdings, wie die Verminderung des Ruß-Eintrags in die Atmosphäre die globale Erwärmung aufhalten soll, denn bislang wurde Ruß eher für die zeitweise Abkühlung in den 60er und 70er Jahren des 20. Jahrhunderts verantwortlich gemacht.
 Eine andere theoretische Möglichkeit, der Atmosphäre das für schädlich gehaltene CO2 zu entziehen, wurde bereits in einem deutsch-indischen Großexperiment namens „Lohafex“ getestet: Das AWI Alfred-Wegener-Institut (Bremerhaven) wollte mit dem Forschungsschiff „Polarstern“ durch die Düngung des südlichen Polarmeeres mit  sechs Tonnen Eisenspänen eine Massenvermehrung einzelliger Algen („Algenblüte“) auslösen. Die Algen sollten den oberen Wasserschichten CO2 entziehen und den aufgenommenen Kohlenstoff nach ihrem Absterben in Form von Kalk am Meeresgrund ablagern. Doch das Experiment ging schief. Die beteiligten Wissenschaftler hatten nicht bedacht, dass die Algen lange vor ihrem natürlichen Absterben zur Beute gefräßiger kleiner Ruderfußkrebse werden, die das CO2 wieder ausatmen.
 Der Ausgang dieses Experiments zeigt, dass die Natur den Menschen nur selten den Gefallen tut, sich modellkonform zu verhalten. Alle Ansätze von Geoengineering beruhen aber auf einer Gleichsetzung von Modell und Realität. Sind schon die Zusammenhänge im Ozean kaum überschaubar, so gilt das erst recht für den Strahlungshaushalt der Atmosphäre. Niemand kann einigermaßen realistisch abschätzen, was überaus teure großtechnische Eingriffe in die Zusammensetzung der Atmosphäre letzten Endes bewirken werden: Sie können möglicherweise infolge von Gegenreaktionen völlig verpuffen, unter ungünstigen Umständen vielleicht aber auch unkontrollierbare Kettenreaktionen auslösen. Dennoch fordert Dr. Sabrina Schulz, die bei der Stiftung Neue Verantwortung für Geoengineering zuständig ist, in einem in der „Financial Times Deutschland“ veröffentlichten Kommentar, angesichts des absehbaren Scheiterns der Durban-Konferenz dürfe keine Option ausgeschlossen werden:„Geoengineering kann Bestandteil einer verantwortlichen Vorsorgepolitik sein“, schreibt sie. „Deutschland ist auch als innovativer Technologiestandort gefordert, sich hier zu positionieren. Gezielte Forschung könnte so bzu Geoengineering der Marke ‚risikogeprüft – made in Germany’ führen.“ Gott bewahre uns vor diesen Klima-Klempnern!
Edgar Gärtner EIKE
erschienen zuerst bei ef hier
Internet:
zwei Beiträge von Klaus Puls EIKE im Magazin Laufpass hier und hier 
Stiftung Neue Verantwortung
Paul Crutzen: Albedo Enhancement by Stratospheric Sulphur Injection
Alan Robock on Geoengineering
Simultaneously Mitigating Near-Term Climate Change and Improving Human Health
Forscher finden einfachste Wege zur Klimaabkühlung
Ein 14-Punkte-Plan für den Weg aus der Klimafalle
AWI: „Lohafex“ provides insides in plancton ecology
Sabrina Schulz: Schwefelt den Himmel, düngt die Meere!




Was sind Querregler und wozu braucht man sie? – Europäisches Stromverbundnetz zum Schutz vor Kraftwerks-Ausfällen-

Update 24.1.12 Neueste Meldung

Industrie soll Prämie bei Stromabschaltung erhalten

Firmen, die bei Engpässen auf Strom verzichten, sollen entschädigt werden. Die Kosten landen über das Netzentgelt beim Verbraucher, berichtet die FAZ
Große Energieverbraucher in der Industrie sollen künftig Geld bekommen, wenn ihnen im Notfall der Strom abgestellt werden kann. Das sieht eine vom Bundeswirtschaftsministerium erarbeitete „Abschaltverordnung“ vor, wie die „Frankfurter Allgemeine Zeitung“ berichtet…

Text:

Im Europäischen Verbundnetz (Drehstrom 220/380 kV) werden Querregel-Transformatoren großer Leistung — Übersetzung 400 kV/400 kV – für verschiedene Aufgaben der Lastflußsteuerung eingesetzt. Dazu zählen Richtbetrieb, Vermeidung von Ringflüssen und Belastungsausgleich im Netz. Die Wirkungsweise beruht auf der zwischen Eingangs- und Ausgangsspannung in kleinen Schriften regelbaren Phasenverschiebung.
Im Leerlauf kann eine Verschiebung bis zu plus/minus 24Grad (zeitl=1,33) msec erreicht werden und damit ein entsprechender Energiemangel oder Energieüberschuss im Netz nachgebildet werden. Für die Fernbedienung in der zuständigen Netzleitstelle müssen die notwendigen Steuerbefehle, Stellungsmeldungen und Meßwerte übertragen werden. Die Investitionskosten für einen Querregeltransformator großer Leistung, z.B. 1200 MVA, einschließlich der zugehörigen Hochspannungschaltfelder im Umspannwerk liegen in Millionenhöhe.
Die übergeordnete Steuerung übernimmt die Netzregelzentrale, die sagt, das ein kontinuierlicher Lastfluß von z.B. 750 MW aus dem Netzgebiet 50Hz in das angrenzendes Netzgebiet Polen vereinbart ist. Bläst nun der Wind zu stark, wird der Querregler aktiv und suggeriert dem 50Hz-Netzgebiet, durch simuliertes Frequenz-Voreilen, das die vereinbarte Lastmenge schon überschritten ist. Tatsächlich jedoch ist im polnischen Netz heile Welt, und die Deutschen Wind-Katastrophen-Heinis können nur noch ihre WKA vom Netz nehmen oder den Blackout erfahren.
Dieses Abwehrverhalten kann nun je nach aktueller Konstellation die verschiedensten auch unerwünschten Auswirkungen haben und defacto wird durch sie das Subsidiaritäts-Prinzip der UCTE ausgehebelt. Es fragt sich, wie lange die Deutschen Anrainerstaaten diese Beträge aufwenden wollen, um proforma weiterhin den fiktiven Anspruch eines Europäischen Verbundnetzes zu erfüllen. Der BDEW sah sich auf meine Nachfrage hierfür nicht zuständig (kann ich sogar akzeptieren.)
Die DENA wiederum als Agitprop-Organisation der „Energiewende“-Politiker bringt den Sachverhalt in die Öffentlichkeit, um mit dem Phantom-Argument „vergeudeter Öko-Strom“ die Bereitschaft des Stromverbrauchers zu wecken, mehr fürs Netz zu bezahlen und die Strecken nicht über BI zu bekämpfen bzw. die dort engagierten ehrenwerten Bürger zu diskreditieren.
Für das grundsätzliche Verständnis des Netzbetriebes empfiehlt sich diese WEB-Site des Netzbetreibers Amprion:
Wer nun verstehen will, warum allein unter Berücksichtigung der hier skizzierten Problematik Smart-Grids ein Wunsch- oder Alptraum (politisch oder technisch) sind, möge sich etwas mit der Diplomarbeit eines Informatikers Fürst aus Dortmund auseinandersetzen:
Entwicklung eines verteilten Koordinierungsverfahrens für Leistungsflussregler in Energieübertragungsnetzen.
Spätestens, wenn man diese Arbeit verstanden hat, weiß man, dass die Energiewende nichts anderes ist als eine große Stromlüge, die Störstrom produziert und zu einem Harakiri der ENTSEO wird. Der Untergang des Euro mit dem Rückfall in nationale Währungen wäre der wesentlich kleinere Fisch.
Das dann Redakteure wie ein Georg Ismar, von dpa Berlin, in Hilfestellung für die Stromwende-Politiker den Einsatz solcher Schutzmechanismen abwehren wollen mit Vernebelungstaktik „Die Energiewende läuft also recht gut, wäre da nicht die Netzfalle“, bzw. beim Bürgern die Akzeptanz von zusätzlichen Stromtrassen erpressen wollen, ist evidente Bauernfängerei.
……

Narretei Smartgrid

Was verbirgt sich überhaupt hinter dem Begriff – hier eine simple Beschreibung für diesen Unsinn, abgesehen von der netzphysikalsichen technischen Unmöglichkeit:
a) Wenn eine Photovoltaik-Anlage ein Verteilnetz zum Zusammenbruch führen würde, weil sie zuviel Strom einspeist, greift die Netzsteuerung ein und schaltet die Anlage ab (ab/kurz), natürlich bekommt der Betreiber dann finanziellen Ersatz. Soweit halbwegs nachvollziehbar, wenn auch eine volkswirtschaftliche Enteignung der Stromkunden, weil Zahlung ohne Leistung
b) Ihre Waschmaschine (im Badezimmer in der Wohnung stehend) läuft nicht dann wenn Sie wollen, sondern z.B. nachts um 3 bei einem Stromverbrauchsloch und Ihre Kinder werden spätestens durch den Schleudergang geweckt.
In Ihrer Hausordnung steht zwar, dass Sie wegen störender Wassergeräusche nach 22.00 Uhr nicht duschen dürfen, aber die Wassergeräusche Ihrer Waschmaschine sind Ihre Mitbewohner Dank Merkelscher Energiewende verpflichtet zu ertragen.

Das bedeutet Smartgrid.

Die Übersetzung Stromlüge von Energiewende ist noch viel zu harmlos! Vorschläge erbeten!
Noch viel griffigere Beispiele für Unfug findet man als ernst gemeinte Forumsbeiträge von Freaks z.B. unter:
http://www.photovoltaikforum.com/sonstiges-f13/
Schauen Sie mal, Sie werden erschrecken was uns diese Menschen noch antun wollen.
Auszüge aus dem EEG-Strom-Newsletter 12/01 von NAEB Nationale Anti EEG Bewegung
H. Duepmann NAEB




Harmonische Klimamodelle im Vergleich mit den generellen Klima-Zirkulationsmodellen des IPCC

Hiermit möchte ich in Kürze meine jüngste Veröffentlichung präsentieren. Damit setze ich meine Forschungen über die Bedeutung natürlicher Klimazyklen und ihre Einwirkung auf Klimaänderungen fort:
Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models” Journal of Atmospheric and Solar-Terrestrial Physics (2011).
http://www.sciencedirect.com/science/article/pii/S1364682611003385
Dazu gibt es hier eine .pdf-Version als Broschüre.
Die wesentlichen Ergebnisse dieser neuen Studie werden hier als Höhepunkte zusammengefasst:
1) Die Klimamodelle des IPCC (CMIP3) können beobachtete dekadische und multidekadische Klimazyklen nicht reproduzieren.
2) Äquivalente Zyklen finden sich unter den primären Oszillationen des Sonnensystems.
3) Es wird eine Korrektur der projizierten anthropogenen Erwärmung für das 21. Jahrhundert vorgeschlagen.
4) Ein vollständiges empirisches Modell wird entwickelt, um Klimaänderungen für einige Jahrzehnte ab 2000 vorherzusagen.
5) Das Klima wird wahrscheinlich bis etwa 2030/2040 stabil bleiben, wonach eine Erwärmung von 0,3°C bis 1,2°C bis zum Jahr 2100 erfolgt.
Allerdings erfordert die wissenschaftliche Methodik, dass ein physikalisches Modell zwei einfache Bedingungen erfüllen muss: es muss physikalische Beobachtungen reproduzieren und vorhersagen können. Daher ist es vollkommen legitim in der Wissenschaft zu prüfen, ob die vom IPCC übernommenen Computer-GCMs die erforderlichen wissenschaftlichen Tests bestehen, das heißt in unserem Fall, ob diese Modelle den Temperaturverlauf des 20. Jahrhunderts ausreichend rekonstruieren und als Konsequenz, ob man diesen Modellen wirklich hinsichtlich ihrer Projektionen für das 21. Jahrhundert vertrauen kann. Fällt die Antwort negativ aus, ist es vollkommen legitim, nach fehlenden Mechanismen zu suchen und/oder nach alternativen Methoden.
Eine der größten Schwierigkeiten der Klimawissenschaft, soweit ich das sehe, ist die Tatsache, dass wir die Verlässlichkeit einer Klimatheorie oder eines Computermodells nicht mit kontrollierten Labortests überprüfen können. Wir können auch nicht das Klima anderer Planeten zum Vergleich heranziehen. Wie leicht könnte es sein, die anthropogenen Auswirkungen auf das Klima quantifizieren, wenn wir einfach das Klima eines anderen Planeten untersuchen, der mit Ausnahme der Menschen mit der Erde identisch ist! Aber diesen Luxus haben wir nicht.
Unglücklicherweise können wir eine Klimatheorie oder ein Computermodell nur gegen die verfügbaren Daten testen, und wenn sich diese Daten auf ein komplexes System beziehen, ist es wohlbekannt, dass selbst eine auf den ersten Blick kleine Diskrepanz zwischen Modellergebnissen und Daten massive physikalische Probleme enthüllen kann.
In einigen meiner früheren Studien, zum Beispiel hier (2011), hier (2010), zusammen mit Loehle hier (2011) und hier (2011) haben wir dargestellt, dass die globalen Temperaturaufzeichnungen mit Thermometern, die es einigermaßen zuverlässig seit 1850 gibt, nahelegen, dass das Klimasystem mit zahlreichen astronomischen Oszillationen, z. B. in der Sonnenaktivität, heliosphärischen Oszillationen aufgrund der Planetenbewegungen und in Mondzyklen schwingt und/oder synchron verläuft.
Die bekanntesten Zyklen, die in den Aufzeichnungen der globalen Temperatur erkennbar sind, haben Perioden von 9,1 Jahren, 10 bis 11 Jahren, etwa 20 Jahre und etwa 60 Jahre. Der 9,1 Jahre lange Zyklus scheint mit solaren/lunaren Tidenzyklen zusammen zu hängen, wie ich auch in dieser Studie zeigen werde, während die anderen drei Zyklen solare/planetarische Zyklen zu sein scheinen, die direkt mit dem Orbits von Jupiter und Saturn in Beziehung stehen. Andere Zyklen mit allen Zeitscales sind ebenfalls präsent, aber nicht Gegenstand dieser Studie.
Die obigen vier wesentlichen Periodizitäten können leicht aus den Temperaturaufzeichnungen abgelesen werden, und zwar mit Methoden alternativer Analysen von Leistungsspektren [?], wie die Abbildung unten zeigt:
 
Abbildung 1
Sich ähnelnde dekadische und multidekadische Zyklen wurden in zahlreichen klimatischen Proxy-Modellen Jahrhunderte und Jahrtausende lang beobachtet, was ich in den Referenzen unten erwähnt habe, obwohl die Proxy-Modelle wegen der manchmal großen Divergenz von der Temperatur sehr sorgfältig untersucht werden müssen.
Der untere Teil der Abbildung beleuchtet einen 60-Jahres-Zyklus der Temperatur (rot), welcher klar hervortritt, wenn man den Erwärmungstrend aus den Daten herausrechnet und die schnellen Fluktuationen herausfiltert. Die schwarzen Kurven erhält man mittels harmonischer Modelle auf dekadischer und multidekadischer Basis, kalibriert auf zwei sich nicht überlappende Zeiträume: 1850 bis 1950 und 1950 bis 2010, so dass sie gegenseitig überprüft werden können.
Obwohl die diese Zyklen hervorrufende Abfolge physischer Mechanismen nach wie vor unklar ist, können die gefundenen Zyklen sicher von einem rein geometrischen Standpunkt aus als Beschreibung der dynamischen Entwicklung des Klimasystems angesehen werden. (In früheren Beiträgen von mir habe ich erklärt, dass die verfügbaren Klimadaten eine astronomisch bedingte Variation der Bewölkungsmenge nahe legen, die kleine Oszillationen der Albedo zur Folge haben mit der Konsequenz, dass auch die Temperatur am Boden oszilliert und mit ihr die Ozeane).
Offenbar können die harmonischen Komponenten der Klimadynamik empirisch modelliert werden, auch ohne detaillierte Kenntnis der zugrunde liegenden Physik, genauso wie man auch die Gezeiten des Ozeans mit einfachen harmonischen Bestandteilen rekonstruieren und vorhersagen kann, wie Lord Kelvin im 19 Jahrhundert erkannte. Leser sollten sich klarmachen, dass Kelvins harmonisches Modell wahrscheinlich das einzige geophysikalische Modell ist, das seine guten Vorhersagemöglichkeiten bereits unter Beweis gestellt hat und das man deswegen in Maschinen zur Vorhersage der Gezeiten implementiert hat. Details siehe http://en.wikipedia.org/wiki/Theory_of_tides#Harmonic_analysis
In meiner Studie habe ich die gleiche Kelvin’sche Annäherung eingebaut, und zwar auf zweierlei Art:

  1. durch abchecken, ob die GCMs des IPCC die entdeckten globalen Temperaturzyklen geometrisch reproduzieren können;
  2. und durch abchecken, ob ein harmonisches Modell für Klimavorhersagen benutzt werden könnte. Ein Vergleich der beiden Methoden findet sich ebenfalls in der Studie.

Ich habe alle verfügbaren Klimamodellsimulationen des 20. Jahrhunderts mit dem Program for Climate Model Diagnosis and Intercomparison (PCMDI) gesammelt, hauptsächlich aus den Jahren 2005 und 2006, und diese archivierten Daten ergeben Phase 3 des Coupled Model Intercomparison Project (CMIP3). Dieses kann man sich hier herunterladen.
Die Studie enthält einen großen Anhang mit Bildern aller GCM-Modellläufe und ihrem Vergleich mit der globalen Temperatur, beispielsweise von der Climatic Research Unit (HadCRUT3). Ich fordere alle nachdrücklich auf, sich die zahlreichen Abbildungen in diesem Anhang mal anzusehen, um ein Gefühl für die Leistung dieser Modelle bei der Rekonstruktion des beobachteten Klimas zu bekommen, welche nach meiner Ansicht für alle Zeiträume ziemlich dürftig ist.
In der Abbildung unten zeige ich nur mal als Beispiel die Aufzeichnungen von HadCRUT3 gegen die Simulation vom GISS-ModelE für die globale Temperatur von 1880 bis 2003 unter Verwendung aller Antriebe, die man sich hier herunterladen kann.
 
Abbildung 2
Der Vergleich zeigt klar die erhebliche Diskrepanz zwischen der Modellsimulation und den Temperaturdaten. Qualitativ ähnliche Diskrepanzen sind typisch und finden sich in allen vom IPCC übernommenen GCMs.
Obwohl ein gewisser Erwärmungstrend in den Modellen zum Ausdruck kommt, der mit den Beobachtungen übereinzustimmen scheint, ist die Modellrechnung tatsächlich nicht in der Lage, die zyklische Dynamik des Klimas zu reproduzieren, aus der sich ein etwa 60-jähriger Zyklus ergibt mit Wärmespitzen um 1880, 1940 und 2000. Diese Verteilung wird außerdem durch den synchronisierten 20-jähringen Temperaturzyklus unterstrichen.
Das GISS ModelE zeigt auch große Ausschläge aufgrund von Vulkanausbrüchen, die in den Temperaturaufzeichnungen ziemlich schwer auszumachen sind. Tatsächlich zeige ich im Anhang die Signatur des GISS ModelE für den vulkanischen Antrieb allein im Vergleich zur gleichen Signatur, die man mit zwei vorgeschlagenen empirischen Modellen erhält, die den vulkanischen Antrieb direkt aus den Temperaturdaten selbst extrahieren..
 
Abbildung 3
Die Abbildung zeigt eindeutig, dass das Modell GISS ModelE das kühlende vulkanische Signal erheblich überschätzt. Das gilt auch für die anderen GCMs, wie die Abbildungen im Anhang zeigen. Dieser Umstand ist ziemlich bedeutend, wie ich weiter unten zeigen werde. Tatsächlich gibt es Versuche, Klimavariationen durch Betonung der Auswirkung vulkanischen Aerosols zu rekonstruieren, aber das Fehlen vulkanischer Spitzen in den Temperaturaufzeichnungen zeigt, dass der vulkanische Effekt schon jetzt überschätzt wird.
In jedem Falle konzentriert sich die Studie darauf festzustellen, ob die 2007 vom IPCC übernommenen GCMs die in den Temperaturaufzeichnungen gemessenen zyklischen Modulationen reproduzieren. Mit einem einfachen, auf vier Zyklen basierendem Regressionsmodell (etwa 9,1; 10; 20 und 60 Jahre) plus einem steigenden Trend, der geometrisch durch quadrierte Abweichungen der Temperatur dargestellt werden kann, habe ich in der Studie gezeigt, dass alle vom IPCC übernommenen GCMs darin scheitern, die beobachteten Temperaturzyklen sowohl im dekadischen als auch im multidekadischen Zeitscale zu reproduzieren.
 
Abbildung 4
Die obige Abbildung beispielsweise beschreibt die Koeffizienten „a“ (für den 60-jährigen Zyklus) und „b“ (für den 20-jährigen Zyklus), wie sie von allen Modellläufen der GCMs des IPCC gezeigt werden. Sie sind einfach auf der Abszisse durchnumeriert. Werte von „a“ und „b“ nahe 1 würden darauf hinweisen, dass die Modellsimulation die korrespondierenden Temperaturzyklen gut abbildet. Wie aus der Abbildung hervorgeht (und aus den Tabellen in der Studie) scheitern alle Modelle damit in ziemlich großem Umfang.
Die Schlussfolgerung ist eindeutig, einfach und geradlinig: alle vom IPCC übernommenen GCMs scheitern daran, die in den globalen Temperaturaufzeichnungen gemessenen dekadischen und multidekadischen dynamischen Modulationen korrekt zu reproduzieren, folglich reproduzieren sie auch nicht die Dynamiken des Klimas. Offensichtlich ist die Behauptung „Die Wissenschaft ist sich einig“ falsch. Tatsächlich fehlen in den Modellen wichtige physikalische Mechanismen, die Klimaänderungen antreiben und die auch immer noch ziemlich mysteriös sein können, und von denen ich glaube, dass sie letztendlich astronomische Ursachen haben, wie ich in meinen anderen Studien ausführlicher erklärt habe.
Aber nun, was können wir mit dieser physikalischen Information jetzt anfangen?
Es ist wichtig sich klarzumachen, dass die „die-Wissenschaft-ist-sich-einig“ – Behauptung eine notwendige Vorbedingung ist, um irgendein physikalisches System effizient mit einem analytischen Computermodell laufen zu lassen, wie es die GCMs mit dem Klimasystem machen wollen. Wenn sich die Wissenschaft nicht einig ist, ist jedoch eine solche Aufgabe nicht effizient und theoretisch unmöglich. Zum Beispiel kann ein Ingenieur keine funktionierende elektronische Anlage bauen (Telefone, Radios, Fernseher, Computer) oder eine Brücke oder ein Flugzeug, wenn einige der notwendigen physikalischen Prozesse unbekannt wären. Normalerweise arbeiten Ingenieure nicht mit teilweise bekannter Wissenschaft. In der Medizin zum Beispiel behauptet niemand, die Leute mit Hilfe einer Art physiologischem GCM zu heilen! Und die GCM-Modellierer sind im Wesentlichen Computeringenieure und keine Klimawissenschaftler.
In der theoretischen Wissenschaft kann man jedoch versuchen, das o. g. Problem zu überwinden, wenn man andere Arten von Modellen benutzt, nämlich empirisch/phänologische Modelle, die selbst ihre Grenzen haben, aber auch zahllose Vorteile. Man muss lediglich geeignete Extrahierungen vornehmen und die in den Daten selbst enthaltenen Informationen verwenden, um die beobachteten Dynamiken zu modellieren.
Nun, in der Studie habe ich die aus den Daten abgeleiteten geometrischen Informationen verwendet, um zwei Dinge zu machen:

  1. Ich schlage eine Korrektur des angebotenen anthropogenen Erwärmungseffektes auf das Klima in dem harmonischen Modell vor
  2. Ich implementiere den oben genannten anthropogenen Erwärmungseffekt in das harmonische Modell, um eine angenäherte Vorhersage für die globale Temperatur im 21. Jahrhundert zu erzeugen, und zwar mit den gleichen Emissionsprojektionen wie das IPCC.

Bezüglich des ersten Punktes müssen wir eine feinsinnige Begründung übernehmen. Tatsächlich ist es nicht möglich, die natürliche und die anthropogene Komponente im beobachteten Erwärmungstrend seit 1850 (etwa 0,8°C) durch die Verwendung eines harmonischen Modells, kalibriert mit den gleichen Daten, weil aus 161 Jahren Aufzeichnungen höchstens ein 60-jähriger Zyklus gut bestimmt werden kann, voneinander zu trennen. Für noch längere Zyklen ist das nicht möglich.
Was zahlreiche Studien einschließlich einiger von mir (zum Beispiel hier) wirklich gezeigt haben ist, dass dieser Erwärmungstrend von 1850 bis 2010 Teil eines Jahrhunderte/Jahrtausende langen Zyklus’ sein kann, der auch für das Römische Klimaoptimum, die Dunklen Zeitalter, das Mittelalterliche Klimaoptimum und die Kleine Eiszeit verantwortlich war.
Die folgende Abbildung 5 von Hulum et al. (2011) vermittelt eine Ahnung davon, wie dieser Jahrhunderte/Jahrtausende lange Zyklus auftauchen kann, wenn man versucht, ein viele Jahrtausende langes natürliches Proxy-Modell für die Temperatur in Zentralgrönland zu rekonstruieren.
 
Abbildung 5
Allerdings ist eine akkurate Modellierung der Jahrhunderte/Jahrtausende langen Zyklen gegenwärtig nicht möglich. Die Frequenzen, Amplituden und Phasen sind nicht präzise bekannt, weil sich die Proxy-Modelle für die Temperatur untereinander ziemlich unterscheiden. Für diese Studie wollen wir im Wesentlichen nur reale Temperaturdaten verwenden, und diese beginnen 1850, was offensichtlich ein zu kurzer Zeitraum ist, um so lange natürlichen Zyklen zu extrahieren.
Um weiterzukommen, habe ich eine auf dem 60-jährigen Zyklus basierende Strategie übernommen, wobei eine Amplitude von etwa 0,3°C geschätzt wurde, wie der obere Teil der Abbildung 6 zeigt:
Die IPCC-Abbildungen 9.5a und 9.5b sind gut geeignet, um die Argumentation zu verstehen, sind doch diese beiden  Abbildungen bei den AGW-Vertretern teils sehr populär. Diese beiden Abbildungen folgen hier:
 
Abbildung 6
Teil b der obigen Abbildung zeigt, dass die Temperatur dem IPCC zufolge ohne anthropogenen Antrieb von 1970 bis 2000 um 0,0 bis 0,2°C hätte zurück gehen müssen, und zwar infolge vulkanischer Aktivität. Nur das Hinzufügen anthropogener Antriebe (siehe Teil a) kann die von 1970 bis 2000 beobachtete Erwärmung um 0,5°C produziert haben. Folglich wird behauptet, dass diese anthropogenen Antriebe einen Temperaturanstieg von 0,5°C bis 0,7°C innerhalb von 30 Jahren erzeugt haben. Diese Erwärmung wird dann in den GCMs des IPCC auf das gesamte 21. Jahrhundert ausgeweitet mit einem Erwärmungstrend von 2,3°C pro Jahrhundert, wie es in der Abbildung SPM5 des IPCC unten zum Ausdruck kommt:
 
Abbildung 7
Aber unser Vertrauen in diese Abschätzung des IPCC zum anthropogenen Wärmeeffekt wird direkt durch das Scheitern dieser GCMs in Frage gestellt, die 60-jährige natürliche Modulation zu reproduzieren, die für eine Erwärmung von mindestens 0,3°C von 1970 bis 2000 verantwortlich ist. Als Konsequenz sollte bei Berücksichtigung dieser natürlichen Variabilität der anthropogene Wärmeeffekt nicht über 0,2°C bis 0,4°C liegen anstatt der vom IPCC behaupteten 0,5°C bis 0,7°C.
Dies bedeutet, dass der anthropogene Erwärmungseffekt auf ein Maximum zwischen 0,5°C und 1,3°C pro Jahrhundert reduziert werden muss, und zwar seit 1970 bis etwa 2050 unter Berücksichtigung der gleichen IPCC-Emissionsprojektionen, die in der Studie beschrieben werden. Dieses Ergebnis in der Studie wird auch erreicht durch Berücksichtigung vieler Möglichkeiten einschließlich der Tatsache, dass die Abkühlung durch vulkanische Aktivitäten offensichtlich in den GCMs überschätzt wird, wie wir oben gesehen haben, und ein Teil der übrigen Erwärmung von 1970 bis 2000 könnte immer noch von anderen Faktoren verursacht sein wie den städtischen Wärmeinseleffekt oder der Landschaftsverbrauch.
An dieser Stelle ist es möglich zu versuchen, eine vollständige Vorhersage des Klimas seit 2000 abzugeben, die sich aus den vier entdeckten dekadischen und multidekadischen Zyklen plus den korrigierten anthropogenen Erwärmungstrend ergeben.
 
Abbildung 8
Die Abbildung zeigt eine vollständige Klimavorhersage meines empirischen Modells im Vergleich zu den IPCC-Projektionen seit 2000. Es ist offensichtlich, dass mein vorgestelltes Modell viel besser mit den Daten übereinstimmt als die IPCC-Projektionen, wie auch andere Tests in der Studie zeigen.
Mein vorgestelltes Modell zeigt zwei Kurven: Eine ist kalibriert auf den Zeitraum 1850 bis 1950 und der andere auf den Zeitraum von 1950 bis 2000. Es ist offensichtlich, dass beide Kurven gleichermaßen die Klimavariabilität von 1850 bis 2011 in dekadischen/multidekadischen Zeitscales gut rekonstruieren, da die graue Linie Höhepunkte glättet mit einem mittleren Fehler von nur 0,05°C.
Das vorgeschlagene empirische Modell würde nahelegen, dass die gleichen, vom IPCC projizierten anthropogenen Emissionen eine globale Erwärmung von 0,3°C bis 1,2°C bis 2100 verursachen würden, im Gegensatz zu den vom IPCC projizierten 1,0°C bis 3,6°C. Meine vorgeschlagene Schätzung schließt auch eine zusätzliche mögliche Abkühlung aus, die von Jahrhunderte/Jahrtausende langen Zyklen abgeleitet werden können.
Einige implizit enthaltene Konsequenzen dieses Ergebnisses ist, dass zum Beispiel der Ozean viel weniger steigen dürfte, sagen wir mal ein Drittel (etwa 12,5 cm) bis 2100, als was vom IPCC projiziert worden ist, und wofür wir möglicherweise nicht unsere Wirtschaft zu zerstören brauchen bei dem Versuch, CO2-Emissionen zu reduzieren.
Wird sich meine Vorhersagekurve hoffentlich für mindestens ein paar Jahrzehnte bewähren? Nun, mein Modell ist keine „kristallene Orakelkugel“. Genau wie bei den ozeanischen Zyklen können zahlreiche andere natürliche Zyklen in allen Zeiträumen im Klimasystem wirksam sein und interessante Interferenzen und eine komplexe Dynamik erzeugen. Andere nichtlineare Faktoren können ebenfalls vorhanden sein, und plötzliche Ereignisse wie Vulkanausbrüche können immer die dynamische Verteilung eine Zeitlang unterbrechen. Also kann das Modell sicher noch verbessert werden.
Vielleicht ist das von mir vorgeschlagene Modell aber auch nur eine weitere Illusion, das wissen wir noch nicht sicher. Was man tun kann, ist die Forschung fortzusetzen und zu verbessern und eventuell Monat für Monat neue Temperaturdaten hinzufügen, um zu sehen, wie sich die vorgeschlagene Vorhersage macht, wie es in der Abbildung unten argestellt ist:
 
Abbildung 9
Die obige Abbildung zeigt einen verglichen mit der Studie aktualisierten Graph, wobei die Temperaturaufzeichnung im Oktober 2011 endet. Hinzugefügt ist die Temperatur vom November 2011 in blau. Die monatlichen Temperaturdaten stammen von hier.
Die empirische Vorhersagekurve (schwarze Kurve, gebildet aus der harmonischen Komponente plus dem vorgeschlagenen anthropogenen Erwärmungstrend) zeigt bisher gute Übereinstimmung mit den Daten. Ok, es ist nur ein Monat, könnte man einwenden, aber tatsächlich startet das ausgewählte Vorhersagemodell bereits im Januar 2000!
Zum Vergleich, die Abbildung zeigt in gelb die harmonische Komponente aus den vier Zyklen allein, was interpretiert werden kann als die untere Grenze der natürlichen Variabilität, basierend auf den gleichen vier Zyklen.
 
Abbildung 10
Schlussfolgernd lässt sich sagen, dass das hier vorgestellte Modell sicher ein vereinfachtes Modell ist, das möglicherweise noch verbessert werden kann, aber schon jetzt sieht es so aus, als würde es alle vom IPCC übernommenen GCMs wie z. B. GISS ModelE übertreffen. Alle diese Modelle bringen es nicht fertig, die beobachteten dekadischen und multidekadischen Zyklen zu rekonstruieren. Außerdem haben sie bei der Vorhersage der Temperaturentwicklung seit 2001 versagt.
Es ist offensichtlich, dass ein Klimamodell für jedwede zivilen strategischen Ziele nützlich wäre, aber nur, wenn es in der Lage ist, die Klimaentwicklung zumindest auf dekadischer/multidekadischer Basis vorherzusagen. Die traditionellen GCMs sind mit diesem Ziel bisher gescheitert, wie diese Studie zeigt.
Die Versuche mancher Klimamodellierer in jüngster Zeit, den Fehlschlag ihrer GCMs hinsichtlich des fast konstanten Klimas der letzten 10 Jahre zu erklären und zu lösen, sind sehr unbefriedigend für irgendwelche praktischen und theoretischen Ziele. Tatsächlich lauten einige der vorgeschlagenen Lösungen: 1) eine vermutete Unterschätzung der abkühlenden Wirkung kleinerer Vulkanausbrüche (Solomon et al., Science 2011) (während der Vulkaneffekt in den GCMs schon jetzt offensichtlich überschätzt wird!) oder 2) eine hypothetische chinesische Emission von Aerosolen (Kaufman et al., PNAS 2011) (die jedoch seit 2005 wahrscheinlich zurückgeht!), oder 3) ein 10-jähriges „rotes Rauschen“, eine unvorhersagbare Fluktuation des Klimasystems, angetrieben durch eine Fluktuation im Wärmegehalt der Ozeane (Meehl et al., NCC 2011) (die sich jedoch in den Modellsimulationen erst 2055 und 2075 einstellen soll!)
Offensichtlich können diese GCMs die Klimaänderung nur „a posteriori“ „vorhersagen“, das heißt beispielsweise, wenn wir wissen wollen, was mit diesen GCMs von 2012 bis 2020 passiert, müssen wir erstens bis 2020 warten und die GCMs  dann mit physikalischen ad hoc-Erklärungen anpassen, einschließlich sogar einer Berufung auf einem unvorhersagbaren „roten Rauschen“ bei der Fluktuation des ozeanischen Wärmegehaltes und im Strömungssystem (laut Modell 2055 und 2075!), um zu versuchen, die Daten während Perioden mit Datenlücken zu erklären, die der projizierten anthropogenen Erwärmung durch GHGs widersprechen!
Sollte dies tatsächlich die Lage sein, ist es wirklich unmöglich, Klimaänderungen für wenigstens einige Dekaden vorherzusagen. Der praktische Nutzen dieser Art von GCMs ist begrenzt und potentiell sehr irreführend, weil das Modell eine 10-jährige Erwärmung vorhersagen kann, während das „rote Rauschen“ der Dynamik des Klimasystems die projizierte Verteilung komplett verändert!
Tatsache ist, dass die obigen ad hoc-Erklärungen in Konflikt zu stehen scheinen mit der Dynamik des Klimasystems, wie es seit 1850 offensichtlich ist. Tatsächlich legt diese Dynamik eine wesentliche multipel-harmonische Komponente beim Klima nahe, deren Ursache wahrscheinlich astronomischen Ursprungs ist (Sonne + Mond + Planeten), obwohl dies physikalisch noch nicht vollständig verstanden ist. Diese Komponente kann auch das Klima nach 2000 ziemlich befriedigend erklären, wie die obigen Abbildungen zeigen (selbst unter Verwendung meines Modells, kalibriert von 1850 bis 1950, das sind mehr als 50 Jahre vor der beobachteten Aufzeichnungslücke seit 2000!)
Vielleicht kann es eine neue Art von Klimamodell, zumindest teilweise auf einer empirischen Rekonstruktion des Klimas, konstruiert aus empirisch bestimmten natürlichen Zyklen, wirklich besser, hätte bessere Vorhersagemöglichkeiten und das als Folge nützlicher für die Gesellschaft sein könnte als die gegenwärtig vom IPCC übernommenen GCMs.
Braucht man also eine Art kopernikanische Revolution in der Forschung zur Klimaänderung, wie auch Alan Carlin vorgeschlagen hat?
Ich persönlich glaube, dass es dringend notwendig ist, mehr in wissenschaftliche Methoden alternativ zu den traditionellen GCMs zu investieren und auch allgemein mehr in die reine Klimaforschung, und nicht nur in die GCM-Forschung, wie es bisher war aufgrund der falschen Behauptung, dass solche Investitionen in die reine Wissenschaft nicht mehr nötig sind, weil sich „die Wissenschaft schon einig ist“.
Bezüglich des anderen allgemeinen AGW-Slogans, demzufolge die gegenwärtigen Mainstream-AGW-Wissenschaft nicht mehr in Frage gestellt werden kann, weil sie auf einem sog. „wissenschaftlichen Konsens“ beruht, möchte ich nachdrücklich anregen, dass jeder diesen Beitrag von Kevin Rice liest, und zwar auf dem Blog Catholibertarian mit dem Titel “On the dangerous naivety of uncritical acceptance of the scientific consensus”.
Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models” Journal of Atmospheric and Solar-Terrestrial Physics (2011).
http://www.sciencedirect.com/science/article/pii/S1364682611003385
http://scienceandpublicpolicy.org/reprint/astronomical_harmonics_testing.html
Abstract:
Wir vergleichen den Aussagegehalt eines kürzlich vorgeschlagenen empirischen Klimamodells, das auf astronomischen Schwingungen im Vergleich zu allen gegenwärtig verfügbaren und vom IPCC verwendeten CMIP3-Klimamodellen zur allgemeinen Zirkulation (GCM) basiert, um den Verlauf der globalen Temperatur während des 20. Jahrhunderts zu interpretieren. Das vorgeschlagene astronomische empirische Klimamodell nimmt an, dass das Klima in Resonanz steht oder synchronisiert ist mit einer Reihe von natürlichen Schwingungen, die in früheren Studien (Scafetta 2010b, 2011b) mit dem Sonnensystem und den Planetenbewegungen assoziiert worden sind, dominiert zumeist von Jupiter und Saturn. Wir zeigen, dass die GCMs die wesentlichen dekadischen und multidekadischen Oszillationen der globalen Temperaturaufzeichnungen von 1850 bis 2011 nicht reproduzieren können. Im Gegenteil hat sich herausgestellt, dass das vorgestellte harmonische Modell (welches hier Perioden von 9,1; 10-10,5; 20-21; 60-62 Jahren nutzt) dies sehr gut kann, und es wird gezeigt, dass es in der Lage ist, die Klimaoszillationen von 1950 bis 2011 vorherzusagen unter Verwendung der Daten von 1850 bis 1950, und umgekehrt. Es wird gezeigt, dass der 9,1-jährige Zyklus wahrscheinlich zusammenhängt mit einer dekadischen Sonne/Mond-Tidenoszillation, während die anderen drei Zyklen synchron mit solaren und heliosphärischen planetarischen Oszillationen laufen. Wir zeigen, dass die Behauptung der GCMs des IPCC, dass nämlich die gesamte Erwärmung von 1970 bis 2000 anthropogen induziert worden ist, irreführend ist wegen des Scheiterns der GCMs, die 20- und 60-jährigen Klimazyklen zu reproduzieren. Schließlich zeigen wir, wie die Gegenwart dieser großen natürlichen Klimazyklen benutzt werden kann, um den vom IPCC projizierten Erwärmungstrend für das 21. Jahrhundert zu korrigieren. Wenn dieser korrigierte Trend mit natürlichen Zyklen kombiniert wird, zeigen wir, dass die Temperatur während der nächsten 30 Jahre nicht signifikant zunehmen wird, hauptsächlich wegen der negativen Phase des 60-jährigen Zyklus’. Wenn multisäkulare [?] natürliche Zyklen (welche einigen Autoren zufolge signifikant zu der beobachteten Erwärmung von 1700 bis 2010 beigetragen haben und die zu einer zusätzlichen natürlichen Abkühlung bis 2100 beitragen können) ignoriert werden, würden die gleichen vom IPCC projizierten anthropogenen Emissionen eine Erwärmung um etwa 0,3°C bis 1,2°C bis 2100 ergeben, im Gegensatz zu den IPCC-Projektionen von 1,0°C bis 3,6°C Erwärmung. Die Ergebnisse dieser Studie belegen frühere Behauptungen, dass die relevanten physikalischen Mechanismen, die die beobachteten Klimazyklen erklären können, in den gegenwärtigen GCMs immer noch fehlen und dass Klimaänderungen in multidekadischen Zeiträumen astronomisch induziert sind und in erster Näherung vorhergesagt werden können.
Von Dr. Nicola Scafetta
Link: http://wattsupwiththat.com/2012/01/09/scaffeta-on-his-latest-paper-harmonic-climate-model-versus-the-ipcc-general-circulation-climate-models/
Übersetzt von Chris Frey für EIKE




Offshore-Windpark “Bard 1″ westlich von Sylt wird zum Milliardengrab- Gaskraftwerke in Bayern rechnen sich nicht

Wie die Internetseite JustSylt nach Capital berichtet entwickelt sich für die umstrittene HypoVereinsbank (HVB) der Offshore-Windpark “Bard 1″ zum Milliardengrab.
Und das Wirtschaftsmagazin ‘Capital’ (Ausgabe 02/2012, EVT 19. Januar) berichtet, das die Unicredit-Tochter die Risikovorsorge für drohende Verluste aus dem sich verzögernden Projekt um knapp 70 Prozent auf 710 Millionen Euro aufgestockt hat.
Bereits im August 2011 hatte die Bank eine zusätzliche Kreditlinie von 860 Millionen Euro gewährt. Die bislang geheim gehaltenen Zahlen musste die HVB jetzt wegen der milliardenschweren Kapitalerhöhung der italienischen Mutter Unicredit Anfang Januar im Börsenprospekt offenlegen.
Bankintern werden die Kosten des in der Nordsee liegenden Windparks inzwischen auf 2,9 Milliarden Euro geschätzt. Diese werden zunächst komplett von der HVB getragen, da die Bank der einzige Finanzierer des Projekts ist. Der mögliche Verkaufserlös, wenn der Park fertig gebaut ist, beläuft sich Brancheninsidern zufolge auf weniger als zwei Milliarden Euro.
Der 2009 gestartete Bau des Riesenkraftwerks mit 80 Windrädern und 400 Megawatt Leistung liegt wegen technischer Schwierigkeiten mehr als zwei Jahre hinter dem Zeitplan zurück. Bislang sind in dem Windpark, der 2011 ans Netz hätte gehen sollen, erst 19 Turbinen installiert. Die HVB hatte 2007 den Kredit für das Projekt zugesagt, ohne dass es Eigenkapitalgeber gab. Die Stadtwerke, die eigentlich einsteigen wollten, haben die Verträge nie unterschrieben.

Süddeutschland findet keine Gasinvestoren

In Bayern und Baden-Württemberg soll Atomstrom durch Gaskraftwerke ersetzt werden. Doch die Länder finden dafür keine Geldgeber – nun sind Teile der Energiewende in Gefahr.

Bayern, wirtschaftlich sehr erfolgreiches Bundesland, dessen Strombedarf zu 58 % aus Kernkraftwerken stammte und das bisher von landschaftsverschandelnden Solar und Windkraftanlagen weitgehend verschont blieb, muss nun erkennen, dass die irrwitzigen Blütenträume der Energiewende auch in diesem Bundesland nicht reifen. Wegen des Atomausstiegs der schwarz-gelben Regierung unter Beteiligung der CSU müssen nun schnellstens Ersatzkraftwerke her. Mit Gas befeuert, was denn sonst. Doch, die Investoren wollen die nicht bezahlen. Sie rechnen sich nicht! It´s the economy, stupid!
So schreibt die FTD am 19.1.12

In Süddeutschland brauchen wir dringend zuverlässigen Ersatz für die Kernkraftwerke", sagte der bayerische Wirtschaftsminister Martin Zeil (FDP) der FTD. "Doch das Problem in den Gesprächen mit den Investoren ist immer wieder die mangelnde Rentabilität." In den vergangenen Monaten hat Bayerns Staatsregierung etwa Gespräche mit dem russischen Gaskonzern Gazprom geführt, allerdings ergebnislos. "Gazprom ist sehr interessiert, wartet aber noch ab", sagte Zeil."

und im grünen Baden-Würtemberg sieht die Situation nicht anders aus:
Wieder die FTD

In Süddeutschland gerät die Energiewende damit zunehmend in Gefahr. Die Region leidet am stärksten unter dem Atom-Aus.

Der Südwesten hat das gleiche Problem wie Bayern. "Es gibt in Baden-Württemberg keine Anreize für neue Kraftwerke", sagte der baden-württembergische Umweltminister Franz Untersteller (Grüne)…

natürlich hat der grüne Minister Untersteller auch gleich einen Lösungsvorschlag für dieses Problem. Nein, nicht was vernünftige Leute tun würden, nämlich das EEG abzuschaffen und den Atomausstieg zurückzunehmen…nein, er schlägt einen neuen Fördertatbestand vor: nämlich…

…ein Modell für einen bundesweiten Fördermechanismus (vor), der Kraftwerke einfach für ihr Vorhandensein bezahlt. Demnach solle bei der Netzplanung ein für die Versorgungssicherheit nötiger Mindestkraftwerkspark definiert werden.

Vielleicht lautet der Wahlspruch der sonst findigen Baden-Württemberger bald so:

Wir können alles – außer rechnen!

Und Bayern zahlte bisher, ob seines Erfolges mehr als 50 % des Gesamtbetrages in den "Länderfinanzausgleich" ein, Baden-Württemberg und Hessen den Rest. Das wird nicht so bleiben, aber dass ist unser kleinstes Problem. Ein kleiner Lichtblick ist das bankrotte aber trotzdem sonnige Spanien. Dort will man bald Politiker die zu viele Schulden machen ins Gefängnis stecken.
die Redaktion
Quellen: JustSylt mit Dank an Gegenwind Dr. Zielinski und Leser Demmig für Hiweise auf die FTD (links dazu im Text)




Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Robert G. Brown, Duke University

Die Erde hat nur eine Absorptionsfläche, die einer zweidimensionalen Scheibe gleicht, nicht einer Kugeloberfläche.
Eine halbe Nacht lang habe ich im Lern-Halbschlaf über dem Buch von Caballero zum Thema des Strahlungstransfers gebrütet und bin zu zwei Einsichten gekommen:
Erstens: das Grundmodell des Schwarzkörpers (es führt zu T_b = 255K) ist physikalisch ein schreckliches Grundmodell. Es behandelt den Planeten wie einen nicht rotierenden Wärme-Supraleiter ohne Wärmekapazität. Warum das so schrecklich ist? Weil es absolut falsch ist, 33K als Treibhauserwärmung in Bezug auf den Ausgangswert zu setzen. Dieser Ausgangswert ist ein völlig unphysikalischer Ausgangswert.
Zweitens, die 33K bedeuten nichts. Sie werfen Erwärmungs- und Abkühlungseffekte zusammen, absolut nichts mit dem Treibhauseffekt zu tun haben. Mehr dazu später.
Jetzt verstehe ich den Treibhauseffekt viel besser. Ich möchte das jetzt mit meinen eigenen Worten schreiben, weil mir einige von Caballeros Aussagen nicht gefallen, und weil ich denke, dass meine Darstellung einfacher und einleuchtender ist. Ich denke auch daran, sie vielleicht später für einen Modellbausatz zu verwenden, von der Art, wie man sie als Lernspielzeuge kaufen kann.
Fangen wir mit einer nicht rotierenden supraleitenden Kugel an, null Albedo, einheitliche Emissivität, vollständige Schwarzkörper-Strahlung von jedem Punkt der Kugel. Wie hoch ist die Durchschnittstemperatur?
Jetzt behandeln wir die nicht rotierende Kugel als vollständigen Nicht-Leiter, dergestalt, dass sich ein Teil der Oberfläche im Strahlungsgleichgewicht befindet. Wie hoch ist die Durchschnittstemperatur jetzt? Das ist für den Mond ein besseres Modell als das vorhergehende, aber immer noch nicht gut genug. Verbessern wir es!
Wir geben der Oberfläche nun einige thermische Wärme-Kapazität – wir machen sie Wärme-supraleitend, aber nur in vertikaler Richtung und wir nehmen noch eine Masseschale von einiger Dicke an, die eine vernünftige spezifische Wärme hat. Das ändert am vorherigen Ergebnis nichts, solange wir die Kugel nicht rotieren lassen. Oho, nun erhalten wir doch eine andere durchschnittliche (Oberflächen-) Temperatur, diesmal ist es der sphärische Durchschnitt einer Verteilung, die von der sphärischen Breite abhängig ist. Dabei liegt die höchste Temperatur auf der Tagseite nahe beim Äquator kurz nach dem „Mittag“ (verzögert, weil es Zeit braucht, um die Temperatur jedes Blockes zu erhöhen, weil die Einstahlung den Schwarzkörper-Verlust übersteigt, und weil es Zeit zur Abkühlung braucht, weil der Schwarzkörper-Verlust die Strahlung übersteigt, und die Oberfläche hat niemals und nirgends eine konstante Temperatur außer an den Polen (ohne axiale Kippung). Das ist wahrscheinlich ein recht passendes Modell für den Mond, wenn man rückschreitend eine Albedo hinzufügt (damit wird der Anteil der hereinkommenden Energie vermindert, der thermisch ausbalanciert werden muss).
Man kann für jede dieser Veränderungen tatsächlich die exakte parametrische Temperatur-Verteilung errechnen als Funktion des sphärischen Winkels und des Radius, und (durch Integration) die Veränderung berechnen in z. B. der durchschnittlichen Temperatur aufgrund der Annahme eines vollständigen Schwarzkörpers. Beim Übergang von einem supraleitenden, aber im Übrigen perfekt isolierenden (nicht rotierenden), Planeten zu einer lokal detaillierten Balance fällt die nachtseitige Temperatur einfach von ½ der Kugel Ihrer Wahl von 3 K, oder von null K nach sehr langer Zeit (das ist leichter zu idealisieren). Das ist die untere Grenze, unabhängig von Sonneneinstrahlung oder Albedo (in diesem Sinne hier: der Emissivität). Die tagseitige Temperatur hat eine polare Verteilung, wobei ein Pol auf die Sonne blickt, sie variiert nicht-linear mit der Einstrahlung, Albedo, und (wenn Sie sie verändern wollen) mit der Emissivität.
Das vermaledeite T^4 verkompliziert alles! Ich möchte noch nicht einmal das Vorzeichen der Veränderung der Durchschnittstemperatur zuweisen, wenn ich vom ersten Modell zum zweiten übergehe! Jedesmal, wenn ich meine, ein gutes heuristisches Argument für die Aussage von einer niedrigeren Durchschnittstemperatur zu haben, sagt eine innere Stimme – T^4 – bilde lieber das verflixte Integral, weil die Temperatur im Übergangsbereich von der Tagseite her allmählich auf Null gehen muss. und da gibt es eine ganze Menge von geringer Einstrahlung in einem Gebiet (und daher mit niedriger Temperatur), wo die Sonne auf fünf Uhr steht, sogar mit null Albedo und der Emissivität von einer Einheit! Leicht ist nur, den sphärischen Durchschnitt zu erhalten: Wir nehmen einfach den sphärischen Tagseiten-Durchschnitt und teilen durch zwei.
Mit dem Vorzeichen für die rotierende Kugel bin ich auch nicht glücklich, weil es auf vom Zusammenspiel zwischen der erforderlichen Zeit zur Erwärmung der thermischen Last (engl: „thermal ballast“) abhängt, bei gegebener Differenz zwischen Einstrahlung und ausgehender Strahlung und der Rotationsrate. Wenn man mit unendlicher Geschwindigkeit rotieren lässt, ist man wieder bei der supraleitenden Kugel. Wenn man dazwischen rotieren lässt, und – verdammt noch mal – indem man nur die Größe der thermischen Last verändert (die thermische Last bestimmt die Thermisierungszeit), kann man es sogar so einrichten, dass sich eine rasch rotierende Kugel wie die statische nicht-leitende Kugel verhält, oder wie eine langsam rotierende (jeweils zwischen null Wärme-Kapazität und sehr hoher Wärme-Kapazität).
Schlimmer noch, wenn man die Geometrie der axialen Pole verändert (die noch in Bezug auf die Ekliptik als ungekippt angenommen werden). Während zuvor die Tag/Nacht Grenze sich allmählich an T = 0 von der Tagseite annäherte, gilt das nun nur noch an den Polen! Das Integral des polaren Gebietes (bei einem gegebenen Polarwinkel dtheta) ist viel kleiner als das Integral des Äquator-Winkels, und zudem hat man nun auch noch einen darüber verschmierten Satz von festen Temperaturen, die alle Funktionen des Azimut-Winkels phi und des Pol-Winkels theta sind, der verändert sich nicht-linear, wenn man einen der folgenden Parameter ändert: Einstrahlung, Albedo, Emissivität, omega (Winkelgeschwindigkeit der Rotation) und Wärmekapazität der Oberfläche.
Und dabei ist noch nicht einmal eine Atmospäre berücksichtigt! Oder Wasser. Aber wenigstens bis zu diesem Punkt kann man die Temperaturverteilungsrechnung T (theta,phi,alpha,S,epsilon,c) exakt lösen, denke ich.
Darüberhinaus kann man tatsächlich so etwas wie das Wasser recht gut modellieren. Wenn wir uns nun die Erde als mit einer Schicht von Wasser bedeckt anstelle von Luft vorstellen, mit einem Schwarzkörper auf dem Grund und einer dünnen Schicht einer völlig transparenten Frischhaltefolie drauf, um die vermaledeite Verdampfung zu verhindern, dann wird das Wasser zu einem Teil des thermischen Ballasts. Nun braucht es viel viel länger, um die Temperatur einer ein-Meter-dicken Wasserschicht (bei gegebenem Ungleichgewicht zwischen der einfallenden Strahlung) zu erhöhen oder zu vermindern, als die Temperatur im vielleicht oberen Zentimeter eines Felsens, von Dreck oder von Sand. Es dauert viel länger.
Wenn man das alles einigermaßen im Griff zu haben meint, könnte man das Modell mit Meeren und Landmassen füllen (aber immer noch den lateralen Energie-Transfer verbieten, und einen unmittelbaren vertikalen Ausgleich unterstellen). Man könnte dem Wasser die richtige Albedo zuschreiben und es beim Erreichen der richtigen Temperatur gefrieren lassen.
Danach wird es aber wirklich schwer.
Jetzt muss nämlich eine Atmosphäre dazukommen. Auch das noch!
Die Meere müssen Konvektionsfähigkeit erhalten, Dichte und unterschiedliche Tiefen. Und das alles auf einer rotierenden Kugel, wo alles was nach oben geht (Luftmassen) gegen die Erddrehung (relativ zur Oberfläche) abgelenkt wird, wo alles, was herunterkommt, in Richtung der Erddrehung angelenkt wird, was nach Norden geht auf der Nordhalbkugel in Drehrichtung abgelenkt wird (es wird schneller), was nach Süden geht, gegen die Drehrichtung abgelenkt wird, als Funktion von Winkel, Geschwindigkeit und Drehgeschwindigkeit. Verdammte Coriolis-Kraft, sie lenkt die Küstenartillerie ab, usw. Und jetzt erwärmen wir mal dieses verdammte Ding differentiell so, dass überall und über alle Entfernungen Turbulenzen vorkommen, für die wir kaum noch die einfachste Symmetrie für das differentielle Erwärmen haben. So ungefähr, wenn wir ein fünfjähriges Kind Farbe auf die Kugel spritzen lassen, um anzuzeigen, wo Landmassen und Ozeane sind, oder wir hätten ihm auch Spielzeuglastwagen geben und es im sphärischen Sandkasten spielen lassen können, bis eine schöne unregelmäßige Oberfläche entstanden wäre. Und diese Oberfläche hätten wir mit Wasser auffüllen können, bis die Oberfläche ungefähr zu 70 % unter Wasser gestanden hätte.
O weh! Mein armer Kopf raucht!
Wohlgemerkt – Wir haben immer noch keinen Treibhauseffekt dabei! Nur eine Heuristik für die Abkühlung durch Abstrahlung in einem idealen Zustand, der ist ganz wörtlich genommen destilliert; in Temperatur und Höhe aufgebrochen, noch ohne die Präsenz von CO2. Wolken. Luft verteilt sich mit nicht-trivialer kurzer Wellenlänge über den Querschnitt. Energietransfer satt!
Bevor wir uns nun mit dem CO2 auseinandersetzen, müssen wir die Quantenmechanik und das Inzidenzspektrum berücksichtigen, dazu auf die bislang ignorierten Details des Erdbodens, der Luft und des Wassers blicken. Für die Luft brauchen wir einen Temperatur-Gradienten, der sich mit der Feuchtigkeit, der Albedo, der Bodentemperatur verändert, usw. … Die Luftmoleküle üben einen Rückstoß aus, wenn sie die einfallenden Photonen verteilen, und wenn es eine Kollision mit einem anderen Luftmolekül im rechten Zeitintervall gibt, werden sie beide einen Teil oder die gesamte Energie absorbieren und die Luft erwärmen, anstatt sie elastisch zu verteilen. Ein Molekül kann auch eine Wellenlänge absorbieren und eine Kaskade von Photonen mit einer anderen Wellenlänge emittieren (abhängig von seinem Spektrum).
Und zum Schluss müssen die Treibhausgase dazukommen, vor allem CO2, (Wasser ist schon drin). Sie bewirken eine Zunahme der ausgehenden Strahlung von der (wärmeren) Oberfläche in einigen Bändern und transferieren etwas davon auf das CO2, wo sie eingefangen bleibt, bis sie zur Spitze der CO2-Säule diffundiert ist, von wo sie mit kühlerer Temperatur emittiert wird. Die gesamte hinausgehende Kraft wird auf diese Weise aufgespalten, dabei wird das vermaledeite Schwarzkörperspektrum so moduliert, dass verschiedene Frequenzen verschiedene Wirktemperaturen haben, lokal moduliert – von nahezu allem. Temperaturgradient, Feuchtigkeitsgehalt. Wolken. Massentransport von Wärme nach oben oder unten qua Konvektion! Massentransport von Wärme nach oben oder unten qua eingefangener Strahlung in Teilen des Spektrums. Und bitte nicht die Umgehungen vergessen! Alles fließt jetzt, Wind und Verdampfung sind gekoppelt, die Zeitdauer für den Temperaturausgleich des Meeres erstreckt sich nun von „im gleichen Maß wie die Rotationsperiode“ für flache Meere bis zu tausend oder mehr Jahren. Der Ozean ist niemals im ausgeglichenen Zustand, er zieht immer an den Oberflächentemperaturen in die eine oder andere Richtung mit nennenswerter thermischer Last, die Wärme wird nicht für einen Tag, sondern für eine Woche, einen Monat, ein Jahr, eine Dekade, ein Jahrhundert, ein Jahrtausend gespeichert.
Jawohl, eine verdammt harte Nuß! Wer auch immer so etwas „gesichertes Wissen“ (settled science) nennt, muss wirklich nicht mehr ganz bei Trost sein.
Wohlgemerkt: ich habe noch nicht den solaren Magnetismus oder ernsthaftere Modulationen der Sonneneinstrahlung einbezogen, noch nicht die Neigung der Erdachse, die noch einmal alles verändert, weil damit die Zeitskalen an den Polen jährliche werden, Nord- und Südpol sind überhaupt nicht gleich. Man beachte die enormen Unterschiede ihrer thermischen Last und den ozeanischen und atmosphärischen Wärmetransport!
Eine harte Nuß. Vielleicht nehme ich sie mir einmal zum Knacken vor, wenn ich Zeit habe, wenigstens für die ersten wenigen Schritte zu Anfang. Ich möchte zumindest eine bessere Vorstellung von der Richtung der ersten kleinen Schritte gewinnen zum Bau eines Spielzeug-Modells für die Durchschnittstemperatur. (Der Begriff „Durchschnittstemperatur“ meint hier etwas Bestimmtes, nämlich bevor das System chaotisch gemacht wird).
Dr. Robert Brown
Der Aufsatz führte auf WUWT zu einer Diskussion mit derzeit über 430 Beiträgen, die wegen des Umfangs leider nicht mehr übersetzt werden können. Wer sich für die Diskussion interessiert, möge die Beiträge und das Original hier lesen.
Übersetzung: Helmut Jäger, EIKE