Das Ende ist nahe ! … für die britische Windstrom-Blase

Bild rechts: Mit den immer noch lediglich 3,2% Anteil der Windkraft an britischem Strom geht das Land in den Winter mit einer winzigen Reserveerzeugung von gerade mal 4%.
Dies klingt nicht eingängig. Dank der Milliarden Subventionen durch die Steuerzahler drehen sich über britischen Gewässern mehr Windräder als im gesamten Rest der Welt zusammen. Aber hinter der Schlagzeile wird ein immer nuancierteres Bild sichtbar.
Die Platzierung von Windturbinen im Meer ist der teuerste Weg, Strom zu erzeugen. Ein modernes Gaskraftwerk gleicher Kapazität kann zu einem Fünftel des Preises gebaut werden und rund um die Uhr laufen, unbehelligt von der unsicheren Natur des Windes. Und dennoch packt das Department of Energy and Climate Change die Offshore-Windenergie mit nuklearen Reaktoren in das Zentrum ihres 200 Milliarden Pfund teuren Planes, mit fossilen Treibstoffen betriebene Kraftwerke durch sauberere Alternativen zu ersetzen.
Diese Stromerzeugungswerke der nächsten Generation sind gewaltig teuer, doch werden diese Kosten auf drei Wegen kompensiert, wie die Regierung lange argumentiert hat. Erstens, Britannien wird seine Abhängigkeit von importierten Treibstoffen drastisch senken und folglich eine größere „Versorgungssicherheit“ sicherstellen. Zweitens, die Revolution wird ein Füllhorn von neuen „grünen Jobs“ mit sich bringen; und drittens, die Kohlendioxid-Emissionen werden einbrechen.
Alle drei Versprechungen sehen heute sehr wackelig aus. Vorige Woche hat National Grind enthüllt, dass Britannien auf dem Weg in diesen Winter eine „Reserve-Marge“ – eine Maßzahl für den Stillstand in dem System – von nur 4% hat. Das ist der niedrigste Wert seit 2007.
Der Druck entstand durch die erzwungene Schließung verschmutzender alter Kraftwerke und durch den Unwillen der Industrie, neue zu bauen inmitten politischer Einmischungen hinsichtlich der Subventionen, die für deren Absicherung gebraucht werden.
Und was ist mit all den grünen Arbeitsplätzen? Sie sind mit Sicherheit nicht in der Weise entstanden, wie sich Gordon Brown das vorgestellt hatte, als er vorhersagte, dass durch die britische Energierevolution 400.000 neue Posten geschaffen werden würden.
Etwa zu der Zeit, als TAG einer teuren Überprüfung unterzogen wurde, hat das Schatzministerium begonnen, sich genauer dafür zu interessieren, was das Energieministerium eigentlich bezwecken wollte. George Osborne war alarmiert über die Schecks, die die Direktoren des Departments gezeichnet hatten. Seine Lösung war der Abgaben-Kontrollrahmen, welches die Subventionen bei 7,6 Milliarden Pfund deckelte, und zwar für sämtliche erneuerbaren Energien – Solar und Wind, Biomasse und Geothermie.
Bislang wurde den Offshore-Projektbetreibern 155 Pfund oder mehr für jede erzeugte Megawattstunde garantiert – das ist etwa das Dreifache des Marktpreises. Diese aufgeblasenen Raten wurden den Stromrechnungen für die Haushalte hinzugefügt.
Ausgelöst durch die Maßregelung des Schatzministers hat das Energie-Department sowohl die Dauer der Subventionsgarantien gekürzt – von 20 auf 15 Jahre – und auch das Niveau der Unterstützung von 155 Pfund pro Megawattstunde auf etwa 140 Pfund.
Diese Kürzungen der Unterstützung überzeugte viele Energie-Giganten davon, ihre Offshore-Pläne zu überdenken oder ganz davon Abstand zu nehmen.
Die Firma Centrica hat seinen Rückzug aus allen neuen Projekten im Juli abgeschlossen, als der britische Gaseigentümer seine geplanten 4 Milliarden Pfund Investitionen in Celtic Array bei Anglesey in die Tonne getreten hatte. Im vorigen Monat hat RWE Innogy sein Galloper-Schema vor der Küste von Suffolk gestrichen, nachdem sich dessen Partner SSE daraus zurückgezogen hatte, ebenso wie drei andere Partner, die unzureichende finanzielle Rückläufe geltend machten.
Mark Powell, Leiter der Abteilung Energie bei der Beratungsfirma AT Kennedy, sagte: „Das Schatzministerium scheint die Lust zu verlieren, die Entwicklung von Offshore-Windenergie in großem Maßstab weiter zu fördern. Angesichts der wachsenden Zweifel um die Bezahlbarkeit der Energie und der Wettbewerbsfähigkeit von UK muss man sich die Frage nach der Zukunft dieser Industrie stellen“.
Full story (subscription required)
Link: http://www.thegwpf.com/the-end-is-nigh-for-britains-wind-investors/
Übersetzt von Chris Frey EIKE
Anmerkung des Übersetzers: Und wann ist man in Deutschland soweit?




Neue skeptische Studie stellt Temperaturaufzeichnungen in Neuseeland in Frage

Dies demonstriert einige der kolossalen Hindernisse bei der wissenschaftlichen Begutachtung, die von Klimaskeptikern überwunden werden müssen, um eine Studie veröffentlicht zu bekommen, die die durch die „offizielle“ Regierungsquelle National Institute of Water and Atmospheric Research (NIWA) erzeugten nationalen Temperaturaufzeichnungen als falsch überführt. Dies zeigt die folgende Graphik und diese Quelle.

Bishop Hill schreibt dazu:
Die bloße Tatsache der Akzeptanz ist Beleg für eine fundamentale Verschiebung der wissenschaftlichen Einstellung zum Klimawandel. Aber man erwarte scharfe Opposition zu dieser Studie.
Die Autoren zeigen zunächst eine prägnante Mess-Historie der NZTR mit der Bemerkung, dass die etablierte nationale Aufzeichnung das Ergebnis eines früheren Verfahrens war. Sie wurde dann als homogenisierter Datensatz rekonstruiert unter Verwendung der begutachteten Adjustierungs-Standards von Rhoades & Camp; Saliner 1993 (RS93).
Die Studie:
A Reanalysis of Long-Term Surface Air Temperature Trends in New Zealand
(Eine Neu-Analyse der langfristigen Trends der Lufttemperatur in Neuseeland)
C.R. de Freitas with M.O. Dedekind and B.E. Brill.

Abstract

Das Erkennen von Trends zum Klima ist wichtig bei der Abschätzung der globalen Änderung auf der Grundlage langzeitlicher Daten. Genauso wichtig ist die Zuverlässigkeit der Ergebnisse, die verbreitet verwendet werden als wesentlicher Input für eine große Zahl von gesellschaftlichen Planungen. Neuseeland verfügt über eine selten lange Zeitreihe der Temperatur in der Südhemisphäre, und es ist eine der längsten kontinuierlichen verfügbaren Klimareihen im Südpazifik. Daher ist es wichtig, dass dieser Temperaturdatensatz den höchsten Qualitäts-Standards genügt. Die nationale Aufzeichnung von Neuseeland von 1909 bis 2009 wird analysiert und die Daten homogenisiert. Die gegenwärtige, ein Jahrhundert lange Klimatologie basiert auf Verfahren aus dem Jahr 1981, die einen Trend von 0,91°C pro Jahrhundert ergaben. Unsere Analyse mit aktualisierten Messverfahren und Korrekturen für Wetterhütten-kontaminierte Daten ergibt einen Trend von 0,28°C pro Jahrhundert.

Bild oben rechts: Temperaturen der Station Rutherglen, Victoria, vor und nach der Homogenisierung.

Blau: Vor der Homogenisierung: Trend -0,35°C pro Jahrhundert.

Rot: Nach der Homogenisierung: Trend +1,73°C pro Jahrhundert

Der Homogenisierungs-Prozess verändert den Temperaturtrend also sehr dramatisch!

Link: http://wattsupwiththat.com/2014/11/01/new-zealnds-temperature-record-challenged-by-new-skeptical-paper/
Übersetzt von Chris Frey EIKE




Endlich ein wenig Realität von RealClimate – aber unglücklicherweise blieben sie bei Einigem irreal

Dieser Beitrag durch den Begründer von RealClimate Stefan Rahmstorf war eine Erwiderung auf den im Journal Nature veröffentlichten Kommentar „Climate policy: Ditch the 2 °C warming goal“ von Victor und Fennel (2014). Konfrontiert mit den Realitäten einer immer langsameren Zunahme der Temperatur brachten Victor und Fennel eine Anzahl anderer Komplexe ins Spiel einschließlich des ozeanischen Wärmegehaltes.
Ich bin mir nicht sicher, ob Rahmstorf wusste, was er da tat. Sein Beitrag auf RealClimate wird viele Jahre lang enthusiastisch von Skeptikern verwendet werden. Rahmstorfs Beitrag wird immer dann fröhliche Urständ‘ feiern, wenn Alarmisten wie die bei SkepticalScience versuchen, einen fortgesetzten Anstieg des ozeanischen Wärmegehaltes als Grund für die fortgesetzte Divergenz zwischen Klimamodellen und Temperatur anzuführen. Beispiel: Der Beitrag What has global warming done since 1998? bei SkepticalScience kann jetzt getrost verworfen werden.
Weil der Beitrag von Stefan Rahmstorf wichtig ist, habe ich ihn hier archiviert.
1.) Falls man einmal durch die Kommentare bei RealClimate geht, wird man einige wenige von Roger Pielke Jr. finden. Pielke Sr. hat seit Jahren argumentiert, dass der ozeanische Wärmegehalt der ideale Komplex zur Messung der globalen Erwärmung ist. Ich stimme dem zu… der ozeanische Wärmegehalt wäre die auszuwählende Größe, FALLS (großes falls) es die Absicht ist zu quantifizieren, wie viel Wärme tatsächlich in den Ozeanen gespeichert wird und dann diese Beobachtungen zu vergleichen mit der Theorie und den Ergebnissen der Klimamodelle. Aber hier handelt es sich nicht um eine Diskussion über die globale Erwärmung, damit die Wissenschaftler die Fehler in den Klimamodellen dingfest machen können. Hier geht es um eine Diskussion um Größen, die für politische Entscheidungen wertvoll sind und die natürlich die große Hypothese befeuern, die die Politik braucht, um die Erwärmung zu bekämpfen, was Viele in Frage stellen.
Wir leben auf der Oberfläche. Daher ist die Erwärmung der Oberfläche oder das Fehlen derselben die maßgebliche Größe. Lufttemperaturen auf dem Festland imitieren und übertreiben die Temperatur über den Ozeanen, nicht in den Tiefen der Ozeane. Die Verdunstung an der Ozean-Oberfläche ist die große Hauptquelle von Feuchtigkeit in der Atmosphäre, und die Verdunstung findet an der Wasseroberfläche statt und nicht in den Tiefen der Ozeane.
2.) Ja, der Wärmegehalt der Ozeane beeinflusst wirklich die Rate des Meeresspiegel-Anstiegs, aber selbst dieser Einfluss ist minimal. Levitus et al (2012) zufolge beläuft sich der Trend der thermisch bedingten Volumenänderung beim Anstieg des Meeresspiegels auf nur 0,54 mmpro Jahr für die Tiefen zwischen 0 und 2000 Metern im Zeitraum 1955 bis 2010. Und noch einmal, falls der Meeresspiegel auf das Niveau steigen sollte, dass er während der letzten Zwischeneiszeit eingenommen hat, läge der Meeresspiegel heute 6 bis 9 Meter über dem heutigen Niveau. Siehe dazu auch Kopp et al. (2013) Probabilistic assessment of sea level variations during the last interglacial stage, und Dutton & Lambeck (2012) Ice volume and sea level during the last interglacial.
Keine Politik bzgl. Kohlendioxid wird den Landeinwärts-Marsch [inland march, ?] der Ozeane aufhalten.
Eine Erwärmung der Ozeane um 250000000000000000000000 Joule „würde im Wesentlichen Null Einfluss“ auf die Oberfläche haben, auf der wir leben.
Wir haben in zahlreichen Beiträgen die vertikal zwischen 0 und 2000 m Tiefe gemittelten Temperaturdaten vom NODC präsentiert und diskutiert. Wir haben besprochen, wie die Daten des ozeanischen Wärmegehaltes mit einem sehr ausdrucksvollen Term (1022 Joule) beschrieben werden. Aber mit uns vertrauteren Termen zur Beschreibung der Temperatur wird die Erwärmung lediglich in Hundertstel Grad Celsius ausgedrückt. In dem Beitrag Rough Estimate of the Annual Changes in Ocean Temperatures from 700 to 2000 Meters Based on NODC Data haben wir sogar die Erwärmung an der Oberfläche gezeigt bis zu einer Tiefe von 700 Metern, zusammen mit einer groben Schätzung der Verhältnisse in den Tiefen zwischen 700 und 2000 Metern. Siehe Abbildung 1, also der Abbildung 3 aus dem o. g. Beitrag:

Abbildung 1
Unter der Überschrift „2. Der ozeanische Wärmegehalt hat keine direkte Beziehung zu irgendwelchen Auswirkungen“ schreibt Stefan Rahmstorf (Fettdruck von mir, Tisdale):
Der ozeanische Wärmegehalt hat um etwa 2,5 X 10↑23 Joule seit 1970 zugenommen (IPCC AR5). Welche Auswirkungen könnte dies haben? Die Antwort lautet: Das hängt davon ab. Falls diese Wärme völlig gleichmäßig im gesamten Ozean verteilt wäre, wäre die Wassertemperatur um weniger als 0,05°C gestiegen (globale Ozean-Masse 1,4 X 10↑21 kg; Wärmekapazität 4 J/gK). Diese geringe Erwärmung hätte im Wesentlichen Null Auswirkungen.
Das heißt, ist die hypothetische Wärme der vom Menschen verursachten globalen Erwärmung erst einmal von den Ozeanen absorbiert, ist sie für Landbewohner nicht mehr von Belang. Skeptiker sagen dies schon seit Jahren. Die Zufuhr „geringer Erwärmung“ in den Tiefen der Ozeane erzeugt eine geringe Hintergrund-Erwärmung, die im Wesentlichen „Null Auswirkung“ auf dem Festland hat.
Aber die Ozeanoberfläche erwärmt sich mit einer viel höheren Rate
Unter dieser Überschrift schreibt Stefan Rahmstorf (Fettdruck von mir, Tisdale):
Der einzige Grund, warum die Wärmeaufnahme der Ozeane einen Einfluss hat, ist die Tatsache, dass sich dies in hohem Maße an der Oberfläche konzentriert, wo die Erwärmung daher sichtbar ist (siehe Abbildung 1). Hinsichtlich Auswirkungen ist also das Problem die Erwärmung der Oberfläche – welche viel besser beschrieben wird durch Messungen der Wassertemperatur an der Oberfläche als mit dem ozeanischen Gesamt-Wärmeinhalt. Die Erwärmung der Oberfläche steht nicht in einfacher Beziehung zur Gesamt-Wärmeaufnahme, weil diese Verbindung durch Meeresströme und Änderungen der Durchmischung gestört wird. (Übrigens, dies gilt auch für den Meeresspiegel-Anstieg infolge thermischer Ausdehnung, weil der Koeffizient der thermischen Ausdehnung bei warmem Oberflächenwasser viele Male größer ist als bei den kalten Tiefenwassern – erneut ist es die Erwärmung an der Oberfläche, die zählt, während uns der ozeanische Gesamt-Wärmeinhalt wenig über die Stärke des Meeresspiegel-Anstiegs sagt).
(Hinweis an Stefan Rahmstorf: In Ihrer Abbildung 1 geht es nicht um die Oberflächen-Erwärmung!)
Aber was Stefan Rahmstorf nicht erwähnt, ist die Tatsache, dass die Ozean-Oberflächen nicht kooperieren mit den vom IPCC im 5. Zustandsbericht verwendeten Klimamodellen. Während der letzten über drei Jahrzehnte hat sich die Ozeanoberfläche mit einer Rate erwärmt, die nur etwa halb so groß ist wie die von den Klimamodellen simulierte. Siehe Abbildung 2:

Abbildung 2
Diese Abbildung war als Abbildung 3 enthalten in dem Beitrag On The Recent Record-High Global Sea Surface Temperatures – The Wheres and Whys.
Nicht rein zufällig… die gemessene Ozean-Erwärmung in der Tiefe ist nur etwas halb so groß wie von den Klimamodellen vorhergesagt. Das heißt, es gibt immer noch eine große Menge fehlender hypothetischer Wärme. Vielleicht sind die Rückkopplungen, die die zusätzliche hypothetische Wärme der Ozeane in den Klimamodellen treiben, doch nicht so positiv wie die Klimawissenschaftler glauben. Es wird jedoch noch Jahrzehnte dauern, bis die klimawissenschaftliche Gemeinde diesen Tatbestand einräumen wird.
Probleme bei der Messung des ozeanischen Wärmegehaltes … und die Wassertemperatur der Ozeane unterhalb der Oberfläche
Wir haben die Probleme mit den Daten des ozeanischen Wärmegehaltes und mit den Referenzmessungen der Temperatur unter der Wasseroberfläche in zahlreichen Beiträgen während der letzten Jahre aufgedeckt. Beispielhaft seien hier genannt:
Is Ocean Heat Content Data All It’s Stacked Up to Be?
AMAZING: The IPCC May Have Provided Realistic Presentations of Ocean Heat Content Source Data
Und es gibt zusätzliche Beiträge unter der Kategorie Ocean Heat Content Problems.
Unter der Überschrift „3.) Ozeanischer Wärmegehalt ist schwierig zu messen“ schreibt Stefan Rahmstorf weiter in seinem Beitrag:
Grund hierfür ist, dass man kleine Temperaturänderungen über ein riesiges Volumen messen muss, die viel kleiner sind als Änderungen an der Wasseroberfläche. Schätzungen des ozeanischen Wärmegehaltes haben eine Reihe von Begutachtungen durchlaufen, Instrumenten-Kalibrierungen usw. Falls wir um nur 0,05°C systematisch falsch liegen im gesamten Ozean infolge des Abdriftens von Instrumenten, wäre der Fehler größer als die gesamte Wärmeaufnahme der Ozeane seit 1970. Falls die Oberflächen-Messungen systematisch um 0,05°C abweichen würden, wäre dies eine vernachlässigbare Korrektur im Vergleich zu der seit 1950 beobachteten Erwärmung um 0,7°C.
Danke, Stefan!
Unter dem Strich
Wie wir schon seit Jahren sagen, die Daten des ozeanischen Wärmegehaltes (und die Temperaturmessungen bis in die Tiefe der Ozeane, auf denen sie basieren), sind ein problematischer Datensatz. Selbst während der ARGO-Ära. Siehe den Artikel von Paul Voosen vom Oktober 2011 mit dem Titel Provoked scientists try to explain lag in global warming. Er enthält Zitate von einer Handvoll sehr bekannter Klimawissenschaftler – einschließlich Kevin Trenberth. Voosen sagte zu Trenberths Meinung über ARGO Folgendes:
Trenberth stellt in Frage, ob die ARGO-Messungen ausgereift genug sind, um so deutliche Aussagen machen zu können, wie Hansen es tut. Er hat viele Diskrepanzen gesehen unter den Analysen der Daten, und immer noch gibt es „Probleme hinsichtlich fehlender und falscher Daten und Kalibrierung“, sagte er. Die ARGO-Bojen sind wertvoll, fügte er hinzu, aber „sie sind noch nicht da“.
Und sie stützen nach wie vor nicht die hypothetische, vom Menschen verursachte globale Erwärmung. In einem offenen Brief an Kevin Trenberth – NCAR (hier) habe ich eine aktualisierte Graphik der vertikalen mittleren Temperatur-Anomaliedaten von NODC für den Indischen, den Pazifischen, den Nord- und Südatlantischen Ozean präsentiert, und zwar in Tiefen zwischen 0 und 2000 Metern aufgrund der ARGO-Messungen (die 2003 begonnen haben). Siehe Abbildung 3 unten (= Abbildung 5 im verlinkten Beitrag). Der flache Verlauf des Trends im Pazifik zeigt, dass es keinen substantiellen Anstieg der Wassertemperatur unterhalb der Oberfläche des Pazifiks gegeben hat, und zwar bis zu einer Tiefe von 2000 Metern während der letzten 11 Jahre. Im Nordatlantik war es genauso. Anthropogene Treibhausgase können die Erwärmung im Südatlantik und dem Indischen Ozean nicht erklären, wenn sie offensichtlich keinerlei Einfluss auf die Erwärmung des Nordatlantiks und des Pazifiks bis zu 2000 Metern während der letzten 11 Jahre hatten.

Abbildung 3
Sind sie neu bei den Diskussionen zur Erwärmung der Ozeane?
Seit nunmehr fast 6 Jahren habe ich gezeigt, wie die Daten des ozeanischen Wärmegehaltes und die Daten aus der Satelliten-Ära belegen, dass natürlich auftretende gekoppelte Ozean-Atmosphäre-Prozesse verantwortlich waren für deren Erwärmung. Siehe den illustrierten Essay The Manmade Global Warming Challenge (42mb). Er ist gratis. Und lassen Sie sich nicht von den „ natürlich auftretenden gekoppelten Ozean-Atmosphäre-Prozessen“ ängstigen. Sie sind nicht schwer zu verstehen.
Link: http://wattsupwiththat.com/2014/10/23/finally-some-reality-from-realclimate-but-unfortunately-they-remained-unreal-about-some-things/
Übersetzt von Chris Frey EIKE




Schwarzkörper-Strahlung und CO2-Emissionen

Die grundlegenden thermischen Eigenschaften des internen Materials, im Besonderen die thermische Leitfähigkeit und die Wärmekapazität ändern sich nicht. Beispiel: Die optischen Eigenschaften der Oberfläche von Kupfer ändern sich dramatisch, wenn sich die Oberfläche von poliertem Material mit einem Überzug von Kupferoxid bedeckt. Die Wärmetransport-Gleichungen bleiben jedoch die Gleichen, außer dass sich die Koeffizienten der Oberflächen-Absorption und -emission signifikant ändern.
Eine ideale Schwarzkörper-Oberfläche absorbiert die gesamte elektromagnetische Strahlung mit allen Wellenlängen und emittiert elektromagnetische Strahlung gemäß der Planck’schen Gleichung. Die Emissions-Eigenschaften pro Flächeneinheit sind vollständig durch einen einzigen Parameter definiert, nämlich der absoluten Temperatur T. Die Gesamtstärke der emittierten thermischen Strahlung nimmt mit vierter Potenz der absoluten Temperatur zu.
Die ideale Schwarzkörper-Oberfläche ist eine Oberfläche, die überdeckt ist mit quantisierten elektrischen Dipol-Oszillatoren.
Planck war der Initiator des Konzeptes leichter Quanten. Später, nach der Entwicklung der Quantenmechanik, musste dem quantisierten Oszillator ein weiterer Term hinzugefügt werden. Das war die Degeneration [degeneracy ?] der molekularen Zustände. Im Besonderen gilt für molekulare Rotationen, dass die Degeneration 2J+1 beträgt, wobei j die Rotations-Quantenzahl ist. Dieser Term erklärt die Abnahme der Emissivität, die in bestimmten Ausgasungs-Emissionsbändern bei zunehmender Temperatur beobachtet wird.
Für Teilabsorber wird der gleiche Anteil absorbiert wie emittiert, und das ist lediglich als ein Skalierungs-Faktor der Schwarzkörper-Emission enthalten. Dies wird oftmals als Graukörper oder Graukörper-Emission bezeichnet. Dieses Konzept war Teil der Schwarzkörper-Strahlungsmessungen gewesen, die Plancks Arbeit vorausgegangen waren.
Bei Gasen haben wir es mit einem emittierenden Volumen, nicht mit einer Oberfläche zu tun. Absorption und Emission variieren signifikant über sehr kleine spektrale Intervalle. Die Skalierung von Absorption/Emission funktioniert immer noch gut, muss aber bei hoher spektraler Auflösung durchgeführt werden. Typischerweise braucht man 0,01/cm, um die Details der molekularen Bandbreite zu erkennen. Für atmosphärische Berechnungen gilt, dass die Weglänge, Druck und IR-Gaskonzentration [IR gaseous concentration] ebenfalls definiert werden müssen, zusätzlich zur Temperatur.
2) CO2-Absorption/Emission
Der wesentliche Punkt ist, dass die thermische Emission eines IR-aktiven Gases in der Troposphäre nicht über den Schwarzkörperwert hinausgehen kann. Abbildung 1 zeigt dies bei einer thermischen Emission der Oberfläche und der Atmosphäre, wobei die Oberflächentemperatur bei 288 K (15°C) festgelegt wird. Die (vertikale) Oberflächen-Emission ist einfach die 288 K-Schwarzkörper-Emissionskurve. Die violette Kurve ist die abwärts gerichtete Emission aus der Atmosphäre zur Oberfläche (Gegenstrahlung [?]). Sie ist nur berechnet für 1H216O and12C16O2. Die [relative] Feuchtigkeit an der Oberfläche beträgt 50%. Die braune Kurve ist die aufwärts gerichtete Emission in den Weltraum bei einer Höhe von 11 km. Die hellblaue Linie markiert die Schwarzkörper-Kurve bei 255 K (-18°C). Dies ist die so genannte ,effektive Gleichgewichts-Emissions-Temperatur‘, die zum mittleren absorbierten solaren Fluss passt, wie es der Energie-Erhaltungssatz verlangt. Die LWIR-Emissionskurven werden gezeigt mit einer Auflösung von 1/cm, aber sie sind abgeleitet aus hoch aufgelösten Berechnungen.

Abbildung 1: Atmosphärische Emission, Temperatur der und über der Oberfläche bei 288 K, RF 50%, CO2 380 ppm, Datensatz verkürzt
In den Spektralbereichen von 200 bis 400/cm, 600 bis 700/cm und 1400 bis 1800/cm ist die abwärts gerichtete atmosphärische Emission der LWIR gleich der aufwärts gerichteten Schwarzkörper-Strahlung. Es gibt keinen Gesamt-Energietransfer zwischen der Oberfläche und der Atmosphäre in diesen Gebieten. Die stärkste LWIR-Emission von der Oberfläche in den Weltraum erfolgt im atmosphärischen Fenster zwischen 800 und 1200/cm (Ozon, Methan, Aerosole usw. absorbieren/emittieren ebenfalls in diesem Bereich, so dass die reale Abstrahlung in den Weltraum geringer ist als hier gezeigt). Allerdings ist die aufwärts gerichtete LWIR-Eission in diesem Bereich hauptsächlich die 288 K-Oberflächen-Emission. Die braune Kurve passt jetzt zu der 288 K-Oberflächen-Emissionskurve.
Die Emission in den Weltraum durch die Wasserbänder [= Wasserdampf-Bänder?] erfolgt hauptsächlich in der mittleren Troposphäre. Zum Vergleich wird die 255 K-Schwarzkörperkurve gezeigt (-18°C). Dies ist ähnlich dem Wasserband-Emissionsprofil. Die Emission aus dem CO2-Band im Bereich 600 bis 700/cm erfolgt in größeren Höhen und setzt sich oberhalb der hier gezeigten 11 km noch fort. Die Emission ist reduziert infolge der kälteren Temperaturen in größeren Höhen.
Die atmosphärische LWIR-Emission in den Weltraum ist abgekoppelt von der abwärts gerichteten Emission zur Oberfläche. Fast der gesamte, die Oberfläche erreichende LWIR-Fluss stammt aus dem Bereich innerhalb der untersten 2 km über der Oberfläche. Etwa die Hälfte davon stammt aus der Schicht der ersten 100 Meter.
Es gibt kein Gleichgewicht. Die Troposphäre wird jeden Tag aufgeheizt durch die solar induzierte Konvektion und kühlt sich fortwährend ab infolge der LWIR-Emission in den Weltraum. Die Erwärmungs- und Abkühlungsprozesse sind unterschiedlicher Natur und müssen getrennt behandelt werden. Der LWIR-Fluss ist an die lokale Luftmasse gekoppelt durch den Absorptions- und Emissionsprozess.
3) Thermische Emission von CO2
In der Troposphäreliegt die Frequenz molekularer Kollisionen über 10↑9. Dies bedeutet, dass die CO2-Moleküle im thermischen Gleichgewicht mit der lokalen Luftmasse sind. Jedes durch die Absorption eines IR-Photons angeregte CO2-Molekül wird sofort in den Grundzustand zurückkehren. Die Energie, die für die Emission eines IR-Photons durch ein CO2-Molekül gebraucht wird, muss von der thermischen Energie der lokalen Luftmasse kommen. Die obere Grenze dieser thermischen Energie liegt nahe 2500/cm für sehr niedrige Höhen bei vollen sommerlichen Sonnenbedingungen. Die einzigen Schwingungsenergie-Niveaus von CO2, die besetzt werden, sind v1, v2, v3, 2v2, 3v2 und v1 + v2. Dies folgt aus den Grenzen der thermischen Besetzung, gegeben durch das Gesetz der Maxwell-Boltzmann-Verteilung N = N0exp[-e/kT].
4) Behauptungen zur globalen Erwärmung
Während der letzten 200 Jahre hat die atmosphärische CO2-Konzentration um etwa 120 ppm zugenommen, von 280 ppm auf 400 ppm. Gerundet hat dies eine Zunahme des abwärts gerichteten LWIR-Flusses an der Oberfläche erzeugt von etwa 2 W/m². Es gibt eine gewisse Überlappung zwischen bestimmten H2O und CO2-Linien, was bedeutet, dass es eine gewisse Abhängigkeit von der Feuchtigkeit gibt. Bei 288 K und 90% Relativer Feuchtigkeit wird die spektral aufgelöste Änderung der in 12C16O2 abwärts gerichteten atmosphärischen Emission zur Oberfläche relativ zum 280 ppm-Niveau in Abbildung 2 gezeigt, und zwar für 200, 380 und 500 ppm. Die Änderungen der Gesamt-LWIR-Emission werden ebenfalls gezeigt. Diese Spektren wurden mittels der HITRAN-Datenbasis berechnet, die viele Jahre lang vom USAF Geophys Lab entwickelt worden ist. Die Datenbasis wurde durch viele Beobachtungen validiert unter vielen verschiedenen atmosphärischen Bedingungen in allen Höhenlagen.

Abbildung 2: Änderungen des abwärts gerichteten LWIR-Flusses bei verschiedenen atmosphärischen CO2-Konzentrationen.
Bei der fundamentalen Frage hinsichtlich der globalen Erwärmung geht es nicht um die Änderung der CO2-Konzentration und auch nicht um die sich daraus ergebende Änderung des LWIR-Flusses. Diese sind gut bekannt. Sondern es geht darum, wie diese kleine Änderung des LWIR-Flusses in das Klimasystem eine langfristige messbare Änderung der mittleren Temperaturaufzeichnung an einer Wetterstation erzeugen kann.
Die kurze Antwort lautet natürlich, dass es durch diese kleine Änderung im LWIR-Fluss unmöglich ist, irgendwelche messbaren Auswirkungen auf das Klimasystem zu haben. Dieser Fluss muss dynamisch hinzugefügt werden dem Gesamtfluss im Klimasystem, und der Gesamtfluss muss gekoppelt werden mit den thermischen Reservoirs des Klimas. Grundlegende technische Berechnungen zeigen dann, dass eine globale Erwärmung unmöglich ist. Die Änderung der Oberflächentemperatur ist zu klein, um gemessen werden zu können, und es kann kein CO2-induziertes Signal der globalen Erwärmung in den Wetterstationsdaten gefunden werden.
Die IPCC-Argumentation basiert auf der á-priori-Hypothese, dass es eine CO2-induzierte Erwärmung geben muss. Die so genannten Klimamodelle wurden mittels empirischer Pseudowissenschaft adjustiert, um diese globale Erwärmung als Auswirkungen von Ozean-Oszillationen auf die Daten der Wetterstationen erscheinen zu lassen, die damit gar nichts zu tun haben. Dies zeigt Abbildung 3 (übernommen von Akasofu).

Abbildung 3: Behauptungen von globaler Erwärmung und Abkühlung auf der Grundlage von Änderungen der Wassertemperatur der Ozeane.
Sonne, Wind und Wasser brauchen keine Hilfe durch CO2, um das Klima der Erde zu bestimmen.
Roy Clark
Die Sonderausgabe von Energy & Environment zum Klimawandel durch die Gastautoren Arthur Rörsch (Niederlande) und Peter Ziegler (Schweiz) wurde bereits 2013 veröffentlicht. Zu ihr trug auch unser Autor Roy Clark bei
http://www.multi-science.co.uk/ee.htm
Inhalt:
EDITORIAL von Arthur.Rörsch & Peter A. Ziegler (guest editors)
A DYNAMIC, COUPLED THERMAL RESERVOIR APPROACH TO ATMOSPHERICENERGY TRANSFER PART I: CONCEPTS
Roy Clark (USA)
A DYNAMIC, COUPLED THERMAL RESERVOIR APPROACH TO ATMOSPHERIC ENERGY TRANSFER PART 2: APPLICATIONS
Roy Clark, (USA)
CLIMATE CHANGE AND CARBON DIOXIDE: GEOLOGICAL PERSPECTIVE Harry.N.A. Priem (The Netherlands)
METEOSAT DERIVED PLANETARY TEMPERATURE TREND 1982-2006 Andries Rosema, Steven Foppes, Joost van der Woerd (The Netherlands)
OVERCOMING CHAOTIC BEHAVIOR OF GENERAL CIRCULATION CLIMATEMODELS (GCMS) S. Fred Singer (USA)
INCONSISTENCY OF MODELED AND OBSERVED TROPICAL TEMPERATURE TRENDS S. Fred Singer (USA)
RECONCILING OBSERVATIONS OF GLOBAL TEMPERATURE CHANGE: 2013 David H. Douglass & John R. Christy (USA)
THE IMPACT OF AEROSOLS ON CLIMATE SENSITIVITY FOR CO2 AS IMPLEMENTED IN CLIMATE MODELS Ferdinand Engelbeen (Belgium)
IPCC UNDERESTIMATES THE SUN’S ROLE IN CLIMATE CHANGE Bas van Geel (The Netherlands) & Peter A.Ziegler (Switzerland)
SOLAR AND PLANETARY OSCILLATION CONTROL ON CLIMATE CHANGE: HINDCAST,FORECAST AND A COMPARISON WITH THE CMIP5 GCMS Nicola Scafetta (USA)
ARE GLOBAL MEAN TEMPERATURES SIGNIFICANTLY AFFECTED BY LONGTERM LUNAR ATMOSPHERIC TIDES? Ian R.G.Wilson (Australia)
SEA LEVEL CHANGES PAST RECORDS AND FUTURE EXPECTATIONS Nils-Axel Mörner (Sweden)
ARE EXTREME WEATHER EVENTS ON THE RISE? Madhav Khandekar (Canada)
Why scientists are skeptical about the AGW concept. Arthur Rörsch (The Netherlands)& Peter A. Ziegler (Switzerland)
Fuel for Thought February -mid June 2013. Sonja Boehmer-Christiansen




Ein Blick zurück: Erwärmung vor 300 Jahren stärker als heute!


Abbildung 1

Abbildung 2 

 Abbildung 3
Um nicht missverstanden zu werden- diese Temperaturentwicklung in Zentralengland kann nicht auf die globalen Verhältnisse übertragen werden. Sehr wohl aber auf die in West- und Mitteleuropa. Für Deutschland liegen keine derart langfristigen, lückenlosen Temperaturaufzeichnungen vor. Es zeigt sich jedoch, dass die CET- und Deutschlandmittel in den vergangenen gut 160 Jahren nahezu im Gleichklang schwankten:

Die erkennbare Erwärmung hatte 3 Ursachen:
1. Längere und intensivere Sonneneinstrahlung
2. Häufigkeitszunahme von Großwetterlagen mit südlichem Strömungsanteil
3. Geänderte Landnutzung durch Trockenlegung, Intensivierung der Landwirtschaft und Versiegelung des Bodens, Verstädterung, Wärmeeintrag durch Heizungen, Industrie und Verbrennungsmotoren (WI- Effekte im weitesten Sinne).
Die erkennbar stärkere Erwärmung des kühleren Deutschlands resultiert aus den Strahlungsgesetzen nach PLANCK; seit gut eineinhalb Jahrzehnten sinken die Temperaturen wieder leicht.
Fazit: Im Vergleich zum historischen Zeitraum fiel die aktuellste Erwärmung in Zentralengland um 0,66K geringer aus. Wählt man als Anfangspunkt aber die kühlen „Endsechziger“ und als Endpunkt das wärmste Jahr der CET- Reihe (2006, mehr Erwärmung geht nicht!), so schneidet die neuzeitliche Erwärmung zwar deutlich besser ab, sie bleibt aber trotzdem noch um 0,22K hinter dem „early baroque warming“ zurück- es wäre schön, wenn unsere „Qualitätsmedien“ einmal darüber berichten würden.
Stefan Kämpfe, Weimar