Video (in Englisch) des Vortrags von Lord Christoper Monckton (ehem. Science Adviser von Lady Margret Thatcher Premierministerin von Groß Britannien) gehalten anlässlich der 9. Internationalen Klima- und Energiekonferenz am 10. und 11.12.15 im Haus der Technik Essen.“Wie die Wissenschaft im Namen des Klimaschutzes geopfert wird „
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
#205: Werner Holtz sagt:
„Die gequantelte Biegeschwingung kann aber erst bei 1,5R + 1R + 1R = 3,5R eintreten.“
Lieber Herr Holtz,
das kann man übrigens auch in Beschreibungen zum
Wirkprinzip vonCO2-Lasern nachlesen.
Was bedeutet das nun für Strahlungstransport mittels CO2 im releveanten Frequenzbereich und für den Treibhauseffekt insgesamt???
MfG
Lieber Herr Holtz #205,
sie schreiben:
„Nee, kann ich leider nicht bestätigen. Aus dem Äquipartitionstheorem können sie auch die Planck’sche Strahlungsformel ableiten, hat also mit dem klassischen Grenzfall nichts zu tun“
Müssen sie gar nicht bestätigen.
In unserem Zusammenhang ist der Gleichverteilungssatz der Grenzfall, wenn T viel größer ist als die charakteristische Temperatur.
Also nur eine Näherung. Der Beitrag des Schwingungsfreiheitsgrades geht in diesem Grenzfall gegen R. In der Quantenstatistik wird der Schwingungsfreiheitsgrad gemäß der Temperatur „gewichtet“ und nicht „gezählt“ wie in der klassischen Statistik. Bei irdischen Temperaturen nehmen die Schwingungsfreiheitsgrade von CO2 nicht an der Gleichverteilung teil. Das bedeutet aber nicht, dass die Schwingungszustände nicht gemäß der entsprechenden Temperatur besetzt sind. Das dürfen sie nicht verwechseln.
Für die Besetzung der Schwingungszustände gilt ganz „normal“ die Quantenstatistik.
Sie schreiben:
„Die gequantelte Biegeschwingung kann aber erst bei 1,5R + 1R + 1R = 3,5R eintreten.“
Das ist falsch. Der Zustand für die Biegeschwingung ist gemäß der Temperatur des Ensembles besetzt.
Addendum zu meinem Beitrag #204:
Es geht noch einfacher: Photo-Akustischer Effekt (PAE), siehe z.B.
http://www.pas-analytik.com
#198: P. Berberich sagt:
Zitat: Sie betrachten offensichtlich nur Zwei-Teilchen-Stöße. Bei höheren Gasdichten sind wohl auch Mehr-Teilchen-Stöße denkbar.
Ja, die Wahrscheinlichkeit eines 3-Teilchen-Stoß ist bei normalen Drücken (um 1bar) sehr gering. Bei größeren Dichten/Drücken oder bei der Photo-Rekombination sind natürlich auch Mehr-Teilchen-Stöße vorhanden.
Ich betrachte Thermalisierung immer unter den folgende Gesichtpunkt:
Das Verhältnis N der freien Weglänge der Strahlung l(rad) zu der freien Weglänge zwischen den Stößen l(f) charakterisiert die Interaktionen, und daraus kann eine Thermalisierungslänge l(th) abgeleitet werden: l(th) = l(f)*sqrt(N) = l(f)*sqrt(l(rad)/l(f)) = sqrt(l(rad)*l(f)). Somit ergibt sich eine Thermalisierungslänge im IR in Oberflächennähe der trockenen Luft von l(th) = sqrt(16,5*68*10^-9) = 1,06*10^-3 m = 1 mm, und für feuchte Luft erhält man l(th) = sqrt(2,43*68*10^-9) = 0,4 mm für die Kombination von Strahlung und Stößen.
Die Thermalisierungslänge l(th) ist die Strecke, die ein Zustands-Teilchen, das aus einem Stoß-, Ionisations-, Absorptions- oder Emissionsprozeß hervorgegangen ist, zurücklegen muß, bevor es soviele weitere Stöße, Absorptions- oder Emissionsprozesse durchgemacht hat, daß es von der restlichen Zustands-Teilchenverteilung nicht mehr unterschieden werden kann. LTE-Bedingungen herrschen, wenn die Thermalisierungslänge kürzer ist als die Entfernung, über die sich die Temperatur merklich ändert (Achtung: „merklich“ im granular-molekularen Bereich!).
Mfg
Werner Holtz
#200: Günter Heß sagt:
Zitat: Ihre Schlussfolgerung, dass die Biegeschwingung nicht thermisch zugänglich ist, ist falsch.
Nee, kann ich leider nicht bestätigen. Aus dem Äquipartitionstheorem können sie auch die Planck’sche Strahlungsformel ableiten, hat also mit dem klassischen Grenzfall nichts zu tun.
Zitat: Das macht also 1.5 R + 1 R + 0.86 R + 0.05 R = 3.41 R aus den Zustandssummen für den Fall 288 K.
Das was Sie hier nicht beachten, das Energien immer gequantelt auftreten. Man kann zwar so eine Rechnung durchführen, aber es ist nunmal kein Bruchteil einer Energie für einen Quanten-Zustand möglich. Die Beiträge der Zustandssumme für die Schwingungen entstehen durch die Rotation oder besser gesagt durch Rotations-Schwingungs-Übergänge, einmal als Beitrag der Rotation zur Tragheit der Biegeschwingung und zum anderen, als Beitrag der Rotation zur Dehnung der Steckschwingung. Diese Beitrage der Rotation eines nicht-starrer Rotator zu den Schwingungsniveaus ist es, welches die summierten 4% Schwingungsanregung ausmachen. Die gequantelte Biegeschwingung kann aber erst bei 1,5R + 1R + 1R = 3,5R eintreten.
Mfg
Werner Holtz
#203: NicoBaecker sagt:
„Temperaturmessung ist physikalisch sinnlos. Abgesehen davon, daß jede Temperaturmessung ohnehin zu träge wäre.“
Lieber Herr NicoBaecker,
es interessiert die Temperatur der N2- bzw.- O2-Moleküle. Nach einer Pulsanregung der CO2-Moleküle erhöht sich infolge von Stößen deren Bewegungsenergie und damit ihre Temperatur. Da sie auch miteinander stoßen, stellt sich ein lokales thermisches Gleichgewicht ein. Infolge von Wärmeausgleich zwischen den Gasatomen innerhalb und außerhalb des Laserstrahls relaxiert die Temperaturerhöhung im Strahl innerhalb von Mikrosekunden auf die Gastemperatur außerhalb. Als Thermometer könnte man ein optisches Verfahren wählen, z.B. Brillouin-Streuung oder die Mikrowellen-Emission von O2. Solche Experimente wurden sicher schon gemacht.
Lieber Herr Berberich, #198
„Interessant wäre auch, ob die Thermalisierung nicht schon gemessen wurde. So ein Experiment müsste doch möglich sein. Man verwende einen gepulsten CO2-Laser und messe nach einem Puls die Gastemperatur.“
Interessante Überlegung. Sie wollen die Thermalisierung also zeitaufgelöst nach der Pulsanregung messen. Aber der Punkt ist – ich habe das schon oft hier erklärt-, daß der thermalisierte Zustand, also der Zustand, in dem das Gasensemble eine neue Temperatur angenommen hat, einige Zeit zum Erreichen benötigt. Direkt nach dem Puls findet die Thermalisierung statt, indem die von Puls angeregten Moleküle mit dem Rest des Gasensembles (welches noch die alte Temperatur hat) per Stöße Energie austauschen und die durch den Puls übertragene Energie von den angeregten Molekülen auf alle verteilen. Direkt nach dem Puls und im sich anschließenden Thermalisierungsprozeß hat das gesamte Gasensemble damit überhaupt keine definierte Temperatur. Temperaturmessung ist physikalisch sinnlos. Abgesehen davon, daß jede Temperaturmessung ohnehin zu träge wäre. Was aber mit den Stößen auch verloren geht ist, ist die Kohärenz von durch den Pulse angeregten Quantenzuständen. Das zeitliche Abklingen dieser Kohärenz kann man messen. Typische Thermalisierungszeiten liegen unter einer Nanosekunde.
Lieber Herr Berberich #197,
so eil ich weiß verwendet die Nasa Atrans für Transmissionsberechnungen im Infraroten.
Globale Energiebilanzen sind ein anderes Thema.
Lieber Herr Holtz #196,
sie schreiben:
„Höhere Schwingungsniveaus als der Grundzustand können nur durch Molekülstöße besetzt werden, wenn die beim Stoß zugeführte Translationsenergie zur Schwingungsanregung ausreicht. Da aber nur Translationszustände mit wesentlich kleineren Energien thermisch besetzt sind, kann beim Stoß kein Energieübertrag in den Schwingungsfreiheitsgrad erfolgen.“
Das ist falsch. In der Verteilung sind Moleküle vorhanden die ausrechend Translationsenergie haben, um die Biegeschwingung des CO2 anzuregen.
Lieber Herr Holtz #196,
Sie schreiben:
„Im Temperatur-Bereich der Atmosphäre hat CO2 einen Wert von 5/2*R < Cv < 7/2*R, das bedeutet, dass die Biegeschwingung um 15µm (668 cm-1) nicht thermisch zugänglich ist, da mindestens zwei Schwingungsfreiheitsgrade erforderlich sind.“ Ihre Schlussfolgerung, dass die Biegeschwingung nicht thermisch zugänglich ist, ist falsch. Bei 255 K liegt Cv für CO2 bei 3.25 R und bei 288 K bei 3.42 R. Es gibt zwei entartete Biegeschwingungung (668 cm-1)die jede einen Beitrag von je 0.43 R zur Wärmekapazität leisten. Dazu kommt die symmetrische Streckschwingung (1388 cm-1) mit einem Beitrag von etwa 0.05 R. Das macht also 1.5 R + 1 R + 0.86 R + 0.05 R = 3.41 R aus den Zustandssummen für den Fall 288 K. Die Biegeschwingungen sind also sehr wohl thermisch zugänglich. Die Besetzungszahlen ergeben sich bei 288 K zu etwa 3.6% für die Biegeschwingung und 0.1% für die symmetrische Streckschwingung. Der Gleichverteilungssatz gilt eben nur im klassischen Grenzfall. Dieser klassische Grenzfall ist bei Schwingungsanregungen nicht erfüllt.
Lieber Herr Holtz #196,
Da haben sie Recht. Meine Aussage
„Thermalisierung hat also nichts mit der Emission zu, sondern mit Absorption.“
Ist so nicht korrekt. Thermalisierung sorgt ja dafür, dass immer CO2 Moleküle im angeregten Zustand der Biegeschwingung vorhanden sind. Insofern hat es auch etwas mit Emission zu tun
#196:
Lieber Herr Holtz,
Sie betrachten offensichtlich nur Zwei-Teilchen-Stöße. Bei höheren Gasdichten sind wohl auch Mehr-Teilchen-Stöße denkbar. Interessant wäre auch, ob die Thermalisierung nicht schon gemessen wurde. So ein Experiment müsste doch möglich sein. Man verwende einen gepulsten CO2-Laser und messe nach einem Puls die Gastemperatur.
#194 Günter Hess sagt:
„Für die Atmosphäre werden die Transmissionsspektren heutzutage berechnet, da spielt die Eigenemission keine Rolle.“
Sehr geehrter Herr Hess,
für welche Atmosphäre: mit Wolkenbedeckung, Aerosolen, mit Niederschlägen. Wenn die Berechnung so gut funktionieren würde, würden sich die veröffentlichten globalen Energiebilanzen nicht so stark voneinander hinsichtlich der von der Oberfläche direkt in den Weltraum abstrahlten IR-Strahlung unterscheiden.
#193: Günter Heß sagt:
Zitat: Thermalisierung hat also nichts mit der Emission zu, sondern mit Absorption.
Das würde dem Äquipartitionstheorem (oder Gleichverteilungssatz) widersprechen, wobei der mögliche Ausgleich von Energiepotenzialen nicht stattfinden könnte.
+ CO2 (T < 225K) -> Cv = 5/2*R (3*Translationsfreiheitsgrade + 2*Rotationsfreiheitsgrade)
+ CO2 (225K < T < 310K) -> 5/2*R < Cv < 7/2*R (3*Translationsfreiheitsgrade + 2*Rotationsfreiheitsgrade + max. 1*Schwingungsfreiheitsgrad) + CO2 (T > 310K) -> Cv > 7/2*R (3*Translationsfreiheitsgrade + 2*Rotationsfreiheitsgrade + 2*Schwingungsfreiheitsgrade)
Im Temperatur-Bereich der Atmosphäre hat CO2 einen Wert von 5/2*R < Cv < 7/2*R, das bedeutet, dass die Biegeschwingung um 15µm (668 cm-1) nicht thermisch zugänglich ist, da mindestens zwei Schwingungsfreiheitsgrade erforderlich sind. Erst ab einer Temperatur von 310K kann die Biegeschwingung im Grundzustand besetzt werden. Die charakteristische Temperatur der Schwingung theta(vib) der Biegeschwingung vom CO2 (entartet) beträgt: theta(vib) = h*v/kB = 954K. Also erst ab einer Temperatur von 945K ist die Biegeschwingung vollständig thermisch (durch Stoß) zugänglich. Höhere Schwingungsniveaus als der Grundzustand können nur durch Molekülstöße besetzt werden, wenn die beim Stoß zugeführte Translationsenergie zur Schwingungsanregung ausreicht. Da aber nur Translationszustände mit wesentlich kleineren Energien thermisch besetzt sind, kann beim Stoß kein Energieübertrag in den Schwingungsfreiheitsgrad erfolgen. Der Gleichverteilungssatz ist dann nicht mehr gewährleistet. Solange der Mittelwert der Translationsenergie entlang einer Raumrichtung klein ist im Vergleich zur Schwingungsanregungsenergie, ist also kein Energieübertrag möglich. Jedes Molekül strebt den energetisch stabilsten (niedrigsten) Zustand in der momentanen Umgebung an, d.h., wo Energieaufnahme und -abgabe sich die Waage halten und möglichst gering ist. Welche Prozesse für die Energieaufnahme und -abgabe stattfinden, hängt von den Energiepotenzialen ab, die ausgeglichen werden müssen. Für die Thermalisierung ist das Äquipartitionstheorem oder der Gleichverteilungssatz anzuwenden, wobei die zentrale Größe die Zustandssumme des thermodynamischen Systems ist. Eines sollte man aber beachten, molekulardynamische Rechnungen sind nur bedingt geeignet für die Berechnung thermodynamischer Größen. Alle mikroskopischen Prozesse bzw. deren Gesetze sind alle invariant gegen die Umkehr der Zeit. Die mikroskopische Reversibilität sagt, dass die beiden Prozesse (Hin- und Umkehr-Prozess) mit der gleichen Wahrscheinlichkeit auftreten. Der Prozess der Emission ist aber nicht der Umkehr-Prozess der Absorption, sondern ein möglicher mikroskopischer Prozess. Eine Emission findet dann statt, wenn andere Möglichkeiten entweder energetisch verboten oder nicht die notwendige Effektivität aufweisen, um das Äquipartitionstheorem aufrecht zu erhalten. Zudem verstehen viele den Begriff der Temperatur und Thermalisierung falsch. Die Temperatur vom Zustandsraum wird von allen Prozessen und Energien bestimmt, und folglich beschreibt die Thermalisierung den Zustand/Vorgang, das ein Zustands-Teilchen, das aus Stoß-, Ionisations-, Absorptions- und Emissionsprozessen hervorgegangen ist, von der restlichen Zustands-Teilchenverteilung nicht mehr unterscheidbar ist. Mfg Werner Holtz
#192/3/4: Günter Heß sagt:
„Durch Stoßanregungen sind im stationären Zustand immer 3% der CO2 Moleküle im angeregten Schwingungszustand und können spontan Photonen emittieren.“
Lieber Herr Heß
„Angeregt“ heißt nicht, daß emittiert werden kann. Es gibt im CO“-Molekül viele Anregungszustände, die für eine Emission nicht ausreichend Energie beinhalten. Und auch wenn die Energie ausreicht, ist nicht gesagt, daß emittiert wird, da die Abregung auch wieder über die unterschiedlichen Möglichkeiten und Stufen darin erfolgen kann. Es wird also, wenn überhaupt, nur ein Bruchteil der 3% angeregten Moleküle emittieren.
„Thermalisierung ist nicht der Grund dafür, da liegen sie falsch. Die Transmission wird Null, weil absorbiert wird. Thermalisierung sorgt dafür, dass die Anregungsenergie auf Freiheitsgrade des absorbierenden Körpers, Gasvolumen oder Festkörper, verteilt wird.“
Würde nicht thermalisiert, bliebe das Molekül im angeregten Zustand oder würde wieder emittieren…
Es zeigt sich also immer deutlicher, daß von der gewaltigen Gegenstrahlung, die die Hälfte der Bodenabstrahlung an diesen zurück wirft nur ein armseliger Rest an Eigenstrahlung einer dünnen, an den Boden angrenzender CO2-Schicht verbleibt.
Nicht 3% der 400ppm CO2 strahlen, sondern nur der Bruchteil, der
a, durch Stoß ausreichend stark angeregt wird
b, sich spontan anregt mit einem in der Elektronenbahn für die Emission ausreichenden Energieniveau
und
c, nicht durch Stoß das ausreichende Energieniveau im Rahmen der mittleren Anregungszeit ganz oder zum Teil verliert.
Das dürfte dann bei Bodendruck so etwa 1 Promille der angeregten Moleküle betreffen.
0,0004 x 0,03 x 0,001 = 12×0,000000001 oder 12×0,0000001 % ist der geschätzte Anteil der mit Eigentemperatur (~ = Bodentemperatur!) gegen Boden strahlenden Moleküle der Atmosphäre.
Wow, hätte ich nicht gedacht!
Lieber Herr Heß,
jetzt müssen wir nur noch messen, welche Strahlungsleistung dabei an den Boden abgegeben wird.
Parallel dazu kann man auch rechnen:
Energie pro Photon mal Anzahl der Emissionsvorgänge innerhalb der mittleren freien Wegstrecke…
Die Eisbären werden schwimmen lernen müssen.
Wegen der menschlichen CO2-Emissionen!
Ganz klar!
Die Inseln werden untergehen und ganze Länder
im Meer versinken.
Von Dürren, Hungersnöten, Überschwemmungen (alle voll katastrophal, natürlich) Völkerwanderungen, Klimakriegen, Seuchen (wie Pest und Cholera, Malaria nicht zu vergessen)
ganz zu schweigen.
Im Ernst:
Es zeigt sich also wieder mal, daß von der CO2-Gefahr fürs Klima nix übrig bleibt.
Das einzige, was mir Sorge macht, ist daß niemand gegen Sorros und seine Kumpane in der Politik aufsteht.
Na ja, Trump vielleicht – schaun ma mal
MfG
Lieber Herr Keks #190,
sie fragen:
„Im Übrigen würde mich interessieren, wie Sie die Transparenz messen wollen, wenn Sie am Sensor nicht zwischen eben emittierten Photonen und solchen, die lange unterwegs waren unterscheiden können.“
Ganz einfach. Bei der Transmissionsmessung benutzt man einfach eine Lichtquelle die man durch den Körper und über einen Referenzweg schickt. Die Lichtquelle wählt man dann um Größenordnungen stärker als die Eigenemission des untersuchten Körpers.
Für die Atmosphäre werden die Transmissionsspektren heutzutage berechnet, da spielt die Eigenemission keine Rolle.
Lieber Herr Keks #191,
sie schreiben:
„Absorbierte Strahlung wird daher thermalisiert,
genau das ist der einzige Grund warum die Transparenz für 15µm-Strahlung 0 wird,
nach wenigen 100m ist sie verschwunden.“
Thermalisierung ist nicht der Grund dafür, da liegen sie falsch. Die Transmission wird Null, weil absorbiert wird. Thermalisierung sorgt dafür, dass die Anregungsenergie auf Freiheitsgrade des absorbierenden Körpers, Gasvolumen oder Festkörper, verteilt wird.
Thermalisierung hat also nichts mit der Emission zu, sondern mit Absorption. Thermalisiert wird die durch Photonen ins Gasvolumen eingetragene Anregungsenergie. Eine 100 m Gasschicht emittiert in den Wellenlängenbereichen in denen sie eine Transparenz von Null hat und thermisch angeregte Zustände hat, gemäß der Planckschen Strahlungsfunktion also wie ein schwarzer Körper.
Auch die Strahlungsenergie die ein Festkörper absorbiert wird thermalisiert. Das heißt sie wird durch Stöße mit Gitterschwingungen auf Freiheitsgrade verteilt. Genau wie das Gasvolumen hat der Festkörper thermisch angeregte Zustände die durch spontane Emission eines Photons in den Grundzustand übergehen.
Lieber Herr Keks #191,
sie schreiben:
„Es braucht Zeit, die bekannt ist, bevor eine Molekülschwingung Energie in Form von Strahlung abgeben kann.“
Diese Aussage ist falsch. Bei der spontanen Emission ist die Zeit nicht vorhersagbar wann emittiert wird.
Bei der spontanen Emission kann der angeregte Zustand innerhalb seiner natürlichen Lebensdauer zerfallen. Es ist eine durchschnittliche Zeit bis die Emission stattfindet und keine Mindestzeit nach der die Emission erst stattfinden kann wie sie falsch schreiben.
Der Zeitpunkt der Emission nach der Anregung und die Richtung sowie Phase und Polarisation sind dabei statistisch (zufällig).
Während es bei der induzierten Emission einer äußeren Einwirkung bedarf findet die spontane Emission ohne äußere Einwirkung statt. Der Zeitpunkt der spontanen Emission ist nicht vorhersagbar. Man kann nur die Wahrscheinlichkeit angeben, dass innerhalb einer bestimmten Zeitdauer eine Emission stattfindet. Das ist die mittlere Lebensdauer. Das ist die Zeitspanne innerhalb der eine Anzahl angeregter Moleküle emittiert hat und die Zahl der ursprünglich angeregten Moleküle auf 37% (1/e) abgesunken ist.
Stöße verkürzen lediglich diese Zeitspanne. Verhindern aber nicht die Emission. Stattdessen liefern sie auch immer wieder angeregte Moleküle nach die ebenfalls emittieren können.
Ein Laser ist eine kohärente Lichtquelle und beruht auf induzierter Emission. Die spontane Emission ist inkohärent und im Laser ein Störeffekt.
Mit dem Laser hat das nur insofern was zu tun als es einen angeregten Zustand mit einer ausreichenden mittleren Lebensdauer braucht damit im stationären Zustand genügend Moleküle im angeregten Zustand (oberes Laserniveau) sind.
So ähnlich ist das auch in der Atmosphäre. Durch Stoßanregungen sind im stationären Zustand immer 3% der CO2 Moleküle im angeregten Schwingungszustand und können spontan Photonen emittieren. Nach jedem Emissionsvorgang wird im Mittel durch Stoßanregung ein angeregtes Molekül nachgeliefert das wiederum emttieren kann. Wir beobachten die thermische Emission der Atmpsphäre.
#188: Günter Heß sagt:
Lieber Herr Heß,
ich zitiere auch noch mal gerne Dr. Paul für Sie:
„Es braucht Zeit, die bekannt ist, bevor eine Molekülschwingung Energie in Form von Strahlung abgeben kann.
Das ist nichts neues !!! „Laserstrahler“ gibt es bekanntlich seit 1960.
Der CO2-Laser, ein Gasplasma-Laser, kein Feststoff, heute noch ein Renner, der übrigens auch in der Medizin verwendet wird, wurde bereits 1964 erfunden und technisch realisiert.
Je stabiler so eine Molekülschwingung ist, desto länger ist diese Zeit, bis eine Spontanemission erfolgt. Das ist alles ausreichend erforscht, sonst gäbe es keine Laser!!!
In der tiefen Atmosphäre ist diese Zeit ZU LANG um eine Spontanemission zu ermöglichen und die Energie für Stoß-induzierte Emission durch Nachbarmoleküle (N2) reicht bei den normalen Temperaturen NICHT aus, um sie auszulösen. Die Atmosphäre ist hier kein Gasplasma.
Absorbierte Strahlung wird daher thermalisiert,
genau das ist der einzige Grund warum die Transparenz für 15µm-Strahlung 0 wird,
nach wenigen 100m ist sie verschwunden.“
MfG
#188: Günter Heß sagt:
Lieber Herr Heß,
folgende Frage ist noch nicht beantwortet:
„Im Übrigen würde mich interessieren, wie Sie die Transparenz messen wollen, wenn Sie am Sensor nicht zwischen eben emittierten Photonen und solchen, die lange unterwegs waren unterscheiden können.“
#188: Günter Heß sagt:
„Richtig ist, dass sich während der mittleren Lebensdauer eines angeregten Schwingungszustandes etwa 10^5 Stöße ereignen. Jeder dieser Stöße kann zu einer Abregung des Schwingungszustandes führen, aber auch zur Emission eines Photons. Es kann aber auch gar nichts passieren, wenn der Stoß elastisch ist.
Auch ein nicht angeregtes CO2 Molekül erfährt in dieser Zeit 10^5 Stöße und kann angeregt werden. Es werden also laufend CO2 Moleküle durch Stöße angeregt.
Falsch ist, dass diese mittlere Lebensdauer einer Zeit entspricht die ein Molekül braucht, um nach einer Anregung wieder abstrahlen zu können. Das dürfen sie nicht verwechseln. Darin liegt ihr Denkfehler.“
Ja nun, Herr Heß:
wir haben 3% der 400ppm im 10m Volumen angeregt,
davon wird der bei weitem überwiegende Teil auch durch Stoß wieder abgeregt und ein paar strahlen ab.
Die paar Photonen, die unter diesen Umständen den Boden erreichen können Sie persönlich mit Handschlag begrüßen.
Und über die 90W/qm müssen wir wohl gar nicht mehr reden.
MfG
Lieber Herr Keks #184,
sie schreiben:
„in der Zeit, die ein Molekül braucht um nach einer Stoßanregung wieder abstrahlen zu können,
ereignen sich bei Bodendruck 10^5 Stöße“
Diese ihre Aussage ist falsch.
Richtig ist, dass sich während der mittleren Lebensdauer eines angeregten Schwingungszustandes etwa 10^5 Stöße ereignen. Jeder dieser Stöße kann zu einer Abregung des Schwingungszustandes führen, aber auch zur Emission eines Photons. Es kann aber auch gar nichts passieren, wenn der Stoß elastisch ist.
Auch ein nicht angeregtes CO2 Molekül erfährt in dieser Zeit 10^5 Stöße und kann angeregt werden. Es werden also laufend CO2 Moleküle durch Stöße angeregt.
Falsch ist, dass diese mittlere Lebensdauer einer Zeit entspricht die ein Molekül braucht, um nach einer Anregung wieder abstrahlen zu können. Das dürfen sie nicht verwechseln. Darin liegt ihr Denkfehler.
#186: Werner Holtz sagt:´
„Nein, durch eine Rekombination, und diese kann auf verschiedene Art und Weise stattfinden.“
Hallo Herr Holtz,
wie sieht diese im Vergleich zu CO2 aus?
„Sie können sich ja mal die Frage stellen, wie es überhaupt zum Polarlicht kommt.“
Energiereiche Strahlung von der Sonne, welche von Sauerstoff absorbiert werden kann?
Dabei fließt die absorbierte Energie (oder ein Teil davon)in eine Erhöhung der Elektronenbahn.
Bei dem Rückfall auf die tiefere Bahn wird das „grüne“ Photon emittiert.
Kommen dann im notwendigen Zeitraum zu viele Stöße dazu, fließt die Energie nicht mehr in Richtung Erhöhung der Elektronenbahn.
In Etwa so richtig?
„Zudem wird die Temperatur vom Zustandsraum von allen Prozessen und Energien bestimmt, deshalb sind alle Prozesse zur Thermalisierung heranzuziehen, und nicht nur Stoßprozesse.“
In „unserem“ Zustandsraum wird die Temperatur ausschließlich durch die Molekülgeschwindigkeit der Gasmoleküle bestimmt. Soweit die absorbierte Energie oder Teile davon innerhalb des Moleküls umgelagert werden, hat dies keinen Einfluß auf die Temperatur.
MfG
#179: besso keks sagt:
Zitat: Ihrer Aussage steht die Beobachtung gegenüber, daß das grüne Polarlicht der angeregten Sauerstoffmoleküle ab einer gewissen atmosphärischen Tiefe erlischt. Es wird also durch Stoß abgeregt…
Nein, durch eine Rekombination, und diese kann auf verschiedene Art und Weise stattfinden.
Sie können sich ja mal die Frage stellen, wie es überhaupt zum Polarlicht kommt.
Zudem wird die Temperatur vom Zustandsraum von allen Prozessen und Energien bestimmt, deshalb sind alle Prozesse zur Thermalisierung heranzuziehen, und nicht nur Stoßprozesse.
Mfg
Werner Holtz
Lieber Herr Landvoigt, #174
„Hier ist der Ansatz von Mittelwerten m.E. sehr problematisch, denn man beschreibt nicht mehr einen beobachtbaren und prüfbaren Prozess. Der Fokus ist also von der Beobachtung eines Prozesses abhängig.“
Das ist aber so nicht richtig. Denken Sie mal alleine an experimentelle Messungen. Da wird üblicherweise mehrmals unter nominell identischen Bedingungen gemessen. Die Messwerte x_i einer Größe X werden statistisch ausgewertet mit dem Ziel der Angabe eines höchstwahrscheinlichen Erwartungswertes x für die Größe X. x selber tauchte aber nie als Messwert in der Reihe von Messwerten x_i auf. Trotzdem x nie direkt gemessen wurde ist die Angabe von x als Wert für X genauer als jede Auswahl eines der tatsächlich gemessenen Werte x_i!
„Meteorologische Modelle sind aber grundsätzlich anders strukturiert wie Klimamodelle, die gar keine kurzräumige Wettervorhersage resultieren wollen. Klimamodelle starten auch nicht mit einem bestimmten Druckszenario und Zyklonmuster, sondern setzen sich ein oder mehrere Abstraktionsebenen über einem Wettermodell an.“
Nein, auch das ist so nicht richtig. Die GCMs sind ja Klimamodelle, die auf der konkreten Berechnung von Druck- und Windfelder basieren. Auch im Modell entstehen und vergehen Zyklonen. Die sind natürlich bei einer grid-Größe von 100 km nur rudimentär, aber die ersten operativ für die Wettervorhersage eingesetzten Wettermodelle in den 60igern haben mit noch größeren Zellen gerechnet und die Wettervorhersage dadurch nachweisbar verbessert.
„Bereits kleine Abweichungen können in chaotischen Systemen zu völlig anderen Funktionsverläufen führen.“
Nun, es ist ja die wissenschaftliche Herausforderung das Modell so aufzubauen, daß die Lösungen hinreichend genau sind. Bei Wetter- und GCmodellen laufen die berechneten und die wirklichen Zirkulationsmuster nach einigen Tagen auseinander. Für die Wettervorhersage ist das nicht zu gebrauchen. Die Lösungen sind dann aber noch statistisch zu gebrauchen, wenn das berechnete Zirkulationsmuster zur beobachteten Klimatologie passt. D.h. das berechnete Modellwetter für den z.B. 1.1.2016 trifft zwar nicht mit dem beobachteten Wetter am 1.1.2016 überein. Aber das Modellwetter zum 1.1.2016 ist Mitglied des statistischen Ensembles der am 1.1. (über mehrere Jahre) beobachteten Wetterzuständen, gehört also zur Klimatologie dieses Jahresabschnitts, daher Klima(!)modell.
Sie kritisieren:
„ 1. Die Wirkung auf Prozess-Ebene (z.B. Wolkenbildung) ist nur unzureichend bekannt.“
Ohne eine quantitative Definition von was „un-/ bzw zureichend“ ist, ist diese Aussage wissenschaftlich gesehen unbrauchbar. Wie genau ein Prozeß verstanden werden muß und mit welcher Genauigkeit, hängt von den darauf aufbauenden Anwendungen ab. Ihre emotionale Aussage ist unangebracht.
“2. Die Effekte sind qualitativ und quantitiv nur unzureichend beschreiben: Wie wirkt sich der variabel Sonnenwind, Sonnenspektren und kosmische Strahlung aus? Die Annahme, dass diese Einflüsse marginal sind, darf massiv bezweifelt werden.“
Zweifel ist ja gut, aber Ihre sind zu unkonkret. Man kann schlecht Effekte berücksichtigen, die man nicht kennt, denn dann weiß man nicht mal, ob sie überhaupt relevant sind.
In der Physik geht man eigentlich ziemlich einfach vor: man misst etwas und versucht, die Messergebnisse mit der bestehenden Theorie quantitativ zu erklären. Wenn die Messergebnisse systematisch von der Theorie abweichen, so hat man ein neues Forschungsfeld für Verbesserungen entdeckt. Aber das heißt nicht, daß die bestehende alte Theorie generell unbrauchbar ist. Es hängt davon ab, wie sich die Abweichungen zu dem durch die alte Theorie Erklärtem verhalten: eine 100% Abweichung zwischen Messung und Theorie fordert eine Notwendigkeit, eine systematische 0,001% Abweichung noch zu verbessern ist eine Arbeit für Detailverliebte.
„Auch ist die Frage, wie sehr die ozeanischen Zyklen, Sonnenzyklen etc. berücksichtigt werden, völlig unklar.“
Habe ich schon zigmal erklärt: die Ozeanischen Zyklen sind bereits intrinsisch in dem GCMs drin, die kann man nicht rein- oder raustun! Warum kapieren Sie das nicht?
Die bekannten und quantifizierten Auswirkungen der Solarzyklen sind schon drin. Unbekannte geht wie gesagt nicht.
„3. CO2 Quellen und Senken sind unzureichend beschrieben. So überraschten Satellitenmessungen, dass Urwälder keineswegs CO2 Senken darstellen, dafür aber aride Gebiete – z.B. Australien.“
Wozu brauchen Sie das fürs Klimamodell? Die historischen Daten sind empirisch drin und für die Projektionen gibt man welche vor. Das CO2 wird wie die Vulkanausbrüche oder die Land-Meerverteilung als Randbedingung extern vorgeschrieben.
„ 4. Massebilanzen der Eiskörper der Antarktis und Grönlands weisen oft gegenläufige, bzw. stark divergierende Werte auf. Ein Zusammenhang mit dem Klimawandel bleibt darum nur in einem weiten Fehlerband darzustellen. „
Was haben die Beobachtung mit den GCMs zu tun?
5. Ebenso unzureichend ist die Feststellung der Meerestemperaturen. Diese sind regional und bezogen auf den Tiefenhorizont im Kontext der Strömungen weitgehend zu grob, wenn überhaupt abzubilden.
Müssen Sie quantifizieren. So ist Ihr Argument wissenschaftlich unbrauchbar.
„6. Meteorolgische Systeme verhalten sich meist chaotisch: Es bilden sich Großwetterlagen heraus, die oft schwer langfristig vorhersehbar sind.“
Sicher, aber deren Klimatologie (=Statistik), siehe oben.
„Ob es hier statistische Trends gibt, die von wenigen Parametern gesteuert sind, und wie sich diese dann Verhalten ist weitgehend nicht begründet ermittelbar.“
Sie zeigen wieder, daß Sie keine Ahnung davon haben, was ein GCM ist. In einem GCM wird deren Statistik des Modellwetters aber nicht durch wenige Parameter gesteuert, sondern ist das Ergebnis der Modellphysik! Diese ist – wie ich oben und ebenfalls erschöpfend oft schon erklärt habe – nicht Statistik, sondern man rechnet die Dynamik von Ozean und Atmosphäre (deswegen heißt es ja auch GCM!) aus den fundamentalen Gleichungen der Physik! Die Statistik des aus der Modellphysik berechneten Modellwetters ergibt sich aus dem mit den dynamischen Gleichungen implementierten Chaos des GCMs. Wenn die Statistik des beobachteten Wetterchaos mit der Statistik des Modellwetters aus dem GCM übereinstimmt, so nennt man das gleiches Klima und das Modell erklärt das beobachtbare Klima.
„Statistische Mittel sind angesichts des chaotischen Charakters völlig unzureichend, um eine prozessnahe Modellierung durchzuführen.“
Es gibt in der Physik beliebig viele Beispiele, die Ihre Aussage widerlegen.
Ich rate Ihnen, GCMs erst einmal korrekt zu verstehen. Ihr Verständnis darüber ist fehlerhaft und ungenügend für eine solide Meinungsbildung.
#183: Günter Heß sagt:
„Ein angeregter Zustand muss nicht die Dauer erhalten bleiben die es für 10^5 Stöße braucht, um emittieren zu können.“
Lieber Herr Heß,
die Aussage heißt korrekt:
in der Zeit, die ein Molekül braucht um nach einer Stoßanregung wieder abstrahlen zu können,
ereignen sich bei Bodendruck 10^5 Stöße.
Diese Aussage kann hier auf Eike seit Jahren nachgelesen werden, ihr wurde m.W. nie begründet widersprochen.
Im Übrigen würde mich interessieren, wie Sie die Transparenz messen wollen, wenn Sie am Sensor nicht zwischen eben emittierten Photonen und solchen, die lange unterwegs waren unterscheiden können.
MfG
MfG
Lieber Herr Keks #182,
sie schreiben:
„Nun ganz so spontan wohl nicht und eben „können“ und nicht „müssen“. Der angeregte Zustand muß eine gewisse Dauer erhalten bleiben um emittieren zu können. In dieser Zeit haben wir bodennah aber die bekannten 10^5 weiteren Stöße.“
Genau da liegt ihr Denkfehler. Das ist falsch.
Ein angeregter Zustand muss nicht die Dauer erhalten bleiben die es für 10^5 Stöße braucht, um emittieren zu können.
#178: Günter Heß sagt:
„„Am Boden kommt bezüglich CO2 höchstens die thermische Strahlung aus dem 10m Streifen an (Für H2O mag eine andere Höhe richtig sein).“
Ihre Aussage bedeutet dann, dass der 10 m Streifen optisch dicht ist, also die Transmission Null hat. Das bedeutet dann, dass ihr Streifen im Wellenlängenbereich des CO2 eine thermische Emission hat, die der Intensität eines schwarzen Strahler mit der entsprechenden Temperatur des Streifens entspricht.“
Lieber Herr Heß,
Wäre das Problem mit der Emissionsfähigkeit nicht gegeben, würde ich Ihnen zustimmen.
„Ihre Aussage ist aber nur für den Zentralbereich der thermischen Emission des CO2 in der Atmosphäre richtig. Für andere Wellenlängen kommt die Strahlung aus höheren Schichten.“
Ja, deßhalb ja auch mein Hinweis auf H2O
„Selbstverständlich gibt es ein physikalisches Prinzip nennt sich mikroskopische Reversibilität. Thermalisierung bedeutet, dass durch Absorption angeregte Moleküle ihre Anregungsenergie an einen Stoßpartner übertragen das ist die Stoßabregung. Damit gibt es aber mikroskopisch gesehen ebenfalls die Gegenreaktion, dass Moleküle ihre kinetische Energie auf CO2 übertragen und dieses anregen. Das ist die Stoßanregung. In welchem Maße die stattfindet hängt davon ab, ob der angeregte Zustand thermisch angeregt werden kann. Das ist bei CO2 im Bereich um 15 µm der Fall, weil es sich um eine Schwingungsanregung handelt deren Anregungsenergie etwa 3.3 kT entspricht. Damit ist dieser Zustand thermisch signifikant angeregt, etwa 3% der Moleküle. Damit existieren zu jedem Zeitpunkt CO2 Moleküle in angeregten Zuständen, die spontan ein Photon emittieren können. Wenn Stoßprozesse dominieren, domineren sowohl die Stoßabregung als auch die Stoßanregung.“
Nun ganz so spontan wohl nicht und eben „können“ und nicht „müssen“. Der angeregte Zustand muß eine gewisse Dauer erhalten bleiben um emittieren zu können. In dieser Zeit haben wir bodennah aber die bekannten 10^5 weiteren Stöße.
„Die Behauptung, dass CO2 nicht emittiert ist also falsch aufgrund der physikalischen Prinzipien“
Es kommt auf die Umstände an. S.o.
„und aufgrund der Messergebnisse die Herr Landvogt zeigt.“
Meßergebnisse sind gut und richtig und wünschenswert.
Im Fall des Treibhauses gilt aber der bekannte Spruch:
Traue keiner Messung, die du nicht selbst hingedreht hast.
Ich sage da nur „Hamburger Wettermast“.
Ich akzepiere daher nur den auf 0°K gekühlten Sensor, der am Boden nach oben mißt.
„P.S. Anders sieht es bei elektronischen Anregung aus die einer Anregungsenergie größer 100 kT entspricht. Diese Zustände sind deshalb typischerweise nicht thermisch angeregt. Deshalb wird die thermische Anregung im Jablonski Schema für die UV/VIS Spektroskopie vernachlässigt.“
Ja, steht hier nicht zur Debatte.
MfG
#174 Martin Landvoigt sagt:
„Unter diesen Umständen ist der Versuch eines GCMs, der realitätsnah die Klimaentwicklung abbildet, äußerst verwegen und erinnert an die Quadratur des Kreises. Es sind gleich eine Reihe von k.o.-Kriterien erfüllt.“
Sehr geehrter Herr Landvoigt,
ich sehe es nicht als primären Zweck von GCMs an, die zukünftige Klimaentwicklung abzubilden, sondern das Wettergeschehen im Zeitrahmen von Monaten bis einigen Jahren zu verstehen und die verschiedensten Beobachtungen in einem Modell zusammenzuführen. Z.B. kann man nicht direkt die in 2m Höhe gemessenen Lufttemperaturen mit den TLT-Satelliten-Temperaturen vergleichen. Insbesondere in der Arktis ist die Aussage von Temperaturmessungen problematisch, da die Ausdehnung des Meereises jahreszeitlich schwankt.
In der Physik ist es üblich Experiment und Theorie zu vergleichen. Dies ist lästig, da häufig einige Ungereimtheiten auftreten und eine Übereinstimmung ein eher langweiliges Ergebnis ist. Die Klimawissenschaftler geben sich deshalb offensichtlich nicht mit diesem Vergleich zufrieden, sondern konzentrieren sich auf die fernere Klimaentwicklung. Das geht wohl aus den von Ihnen genannten Gründen schief. Bescheidenheit und Redlichkeit sind nicht unbedingt Tugenden, die von allen Wissenschaftlern geteilt werden.
@Martin Landvoigt #175,
auf dieser Seite http://tinyurl.com/pg3bd8p wird allerdings das Wasser in der Stratosphäre konsequent auf Null gesetzt. Es bleibt bei etwa 85 W/m2 Standard US Atmosphäre.
Ich vermute auch, dass Extremfälle schlecht berechnet werden.Besser ist es sicher sich auf Fälle zu beschränken die auch vorkommen bzw. vorkommen können.
Für unsere Diskussion hier ist es ja eher ein didaktisches Modell und dafür ist es geeignet.
#176: Werner Holtz sagt:
„Stöße sind ausgeschlossen, weil ein Molekülstoß die Schwingungsenergie nicht aufnehmen bzw. verteilen kann. Die Energie des Schwingungszustandes ist dE(f) = h*c/l = 6,6*10^-34*2,99*10^8/15*10^-6 = 1,31*10^-20 J und verglichen mit der Energie beim Molekülstoß dE(s) = k*T = 1,38*10^-23*300 = 4,14*10^-21 J.“
Sehr geehrter Herr Holtz,
Ihrer Aussage steht die Beobachtung gegenüber, daß das grüne Polarlicht der angeregten Sauerstoffmoleküle ab einer gewissen atmosphärischen Tiefe erlischt.
Es wird also durch Stoß abgeregt…
Und das bei Energien, die wesentlich höher sind als im IR-Bereich!
Im Übrigen gäbe es auch keine Thermalisierung der absorbierten Strahlung, sondern es müßte alle von einem Molekül absorbierte Strahlung von diesem selben auch wieder emittiert werden.
Ich denke, da waren wir schon weiter.
Oder missverstehe ich Sie?
MfG
MfG
Lieber Herr Keks #172,
sie schreiben:
„Am Boden kommt bezüglich CO2 höchstens die thermische Strahlung aus dem 10m Streifen an (Für H2O mag eine andere Höhe richtig sein).“
Ihre Aussage bedeutet dann, dass der 10 m Streifen optisch dicht ist, also die Transmission Null hat. Das bedeutet dann, dass ihr Streifen im Wellenlängenbereich des CO2 eine thermische Emission hat, die der Intensität eines schwarzen Strahler mit der entsprechenden Temperatur des Streifens entspricht.
Ihre Aussage ist aber nur für den Zentralbereich der thermischen Emission des CO2 in der Atmosphäre richtig. Für andere Wellenlängen kommt die Strahlung aus höheren Schichten.
Selbstverständlich gibt es ein physikalisches Prinzip nennt sich mikroskopische Reversibilität. Thermalisierung bedeutet, dass durch Absorption angeregte Moleküle ihre Anregungsenergie an einen Stoßpartner übertragen das ist die Stoßabregung. Damit gibt es aber mikroskopisch gesehen ebenfalls die Gegenreaktion, dass Moleküle ihre kinetische Energie auf CO2 übertragen und dieses anregen. Das ist die Stoßanregung. In welchem Maße die stattfindet hängt davon ab, ob der angeregte Zustand thermisch angeregt werden kann. Das ist bei CO2 im Bereich um 15 µm der Fall, weil es sich um eine Schwingungsanregung handelt deren Anregungsenergie etwa 3.3 kT entspricht. Damit ist dieser Zustand thermisch signifikant angeregt, etwa 3% der Moleküle. Damit existieren zu jedem Zeitpunkt CO2 Moleküle in angeregten Zuständen, die spontan ein Photon emittieren können. Wenn Stoßprozesse dominieren, domineren sowohl die Stoßabregung als auch die Stoßanregung.
Die Behauptung, dass CO2 nicht emittiert ist also falsch aufgrund der physikalischen Prinzipien und aufgrund der Messergebnisse die Herr Landvogt zeigt.
P.S. Anders sieht es bei elektronischen Anregung aus die einer Anregungsenergie größer 100 kT entspricht. Diese Zustände sind deshalb typischerweise nicht thermisch angeregt. Deshalb wird die thermische Anregung im Jablonski Schema für die UV/VIS Spektroskopie vernachlässigt.
#172: besso keks sagt:
Ich kann mir nicht vorstellen, daß 400ppm CO2 der 10m-Schicht 90W/qm Strahlungsleistung aus thermischer Eigenstrahlung an den Boden abgeben kann, wenn der Boden selbst über den gesamten Abstrahlbereich eines Schwatzkörpers lediglich ~350W/qm aufbringen kann.
Man muß da nur mal die beteiligten Massen betrachten.
—————-
Sehr geehrter Herr Keks,
Natürlich wollen wir uns Vorstellungen von der Realität machen. Manchmal leitet uns die Intuition aber in die Irre. Das kann man dann zuweilen in einem Gedankenexperiment überprüfen:
Stellen sie sich einen massiven Stahlblock vor, der 200°C warm ist. Die Strahlung wird man mit geeigneten Messgeräten feststellen können.
Jetzt stellen sie sich eine gleich große Fläche vor, die aus dem selben Stahlt gemacht ist, aber nur 0,1 mm Dick ist, aber die gleiche Temperatur hat. Werden sie ein Unterschied der Strahlung fesstellen? Sicher nicht!
Folglich spielt die Masse hier keine Rolle.
Vermutlich denken sie: Das Blech wird sich aber sehr schnell abkühlen, während der Block wohl seine Temperatur nur langsam abgibt … wie aber, wenn das Blech von der anderen Seite erhitzt wird?
Mit der Atmosphäre ist dies nicht ganz das selbe, aber ähnlich. Anstelle einer festen Oberfläche mit nur wenigen strahlenden Molekülen haben sie aufgrund der wesentlich geringeren Dichte eine effektiv strahlende Schicht – bezogen auf die Oberfläche und Frequenzband wenige Meter dick. Diese Schicht wird einerseits von Unten, durch die Bodenabstrahlung, andererseits von der Strahlung der darüber liegenden Schichten erwärmt, bzw. in dessen Abkühlung gemildert, so dass man durchaus von LTE ausgehen kann.
Darum sind die Werte der Rückstrahlung, die zunächst viel zu hoch aussehen, gar nicht so unplausibel.
————- #172: besso keks sagt:
Es gibt auf jeden Fall kein Gesetz, daß ein IR-aktives Gas zwingt abzustrahlen, solange alternative, konkurrierende Entspannungswege offen stehen. Siehe auch Hug mit Verweis auf Jablonski.
Außerdem habe ich nichts gegen das Bisschen thermische Strahlung des CO2.
Ich sehe nur nicht, wie die paar Gramm CO2 in der 10m-Schicht bei 15°C ganze 90W/qm
an den Boden abgeben sollen (gut ein Viertel der gesamten Abstrahlleistung des Bodens!!!)
—————
Ich war auch anfangs irritiert, als ich mir das Jablonski-Schema klar machte. Dies ist jedoch nur für molekulare Ebene auf Basis eines einzelnen Relaxationsprozess bedeutsam, nicht aber unter Einbezug eines gesamten Molekül-Ensembles, dass in ständiger Wechselwirkung steht. Denn hier geschehen neben den Relaxationsprozessen stets auch Anregungsprozesse durch Stoß und Absorption entgegen. Genau ist darum die zulässige vereinfachte Modellannahme LTE. Das heißt: Manche dieser Prozesse stehen durch die Statistik derart im Ausgleich, dass sie ihre Bedeutung verlieren. So ist die Stoß-Relaxation für ein Gasvolumen auch unter Beachtung von Jablonski durch die Stoß-Anregung zu Null zu saldieren. Es bleiben daher die kirchhoffschen Strahlungsgesetze unter LTE gültig.
————- #172: besso keks sagt:
Nebenbei bemerkt: ich kann mich gut an die Anfänge der Diskussion um das Treibhaus hier auf EIKE erinnern:
erst gabs die Schicht in 8000m Höhe, die die IR-Strahlung des Bodens zurück reflektiert, …
————-
Das sind die ‚didaktisch‘ gemeinten Modelle, wie sie auch Al Gore benutzt. Das ist natürlich grober Unfug, der hier nicht mehr als didaktisches Mittel entschuldbar bleibt, sondern einfach nur falsch ist.
————- #172: besso keks sagt:
… dann war es der Strahlungstransport, der die Bodenabstrahlung als Gegenstrahlung zurückbringt.
————-
Das ist zwar auch eine Vereinfachung, die so nicht uneingeschränkt zutreffend ist, kommt der Realität aber näher.
————- #172: besso keks sagt:
Jetzt soll die thermische Eigenstrahlung einer 10m-Schicht mit 400ppm die Quelle für die Gegenstrahlung in immer noch gleicher Stärke sein.
————
Die Höhe der Gegenstrahlung – eigentlich ein fragwürdiger Begriff, der sich auch eingebürgert hat – ist bedingt durch die physische Beschaffenheit der Luftschicht und der Temperatur. Sie setzt nicht notwendig eine Bodenabstrahlung voraus: Wenn eine warme Luftschicht über eine kalte Eisfläche weht, auch in der Nacht ohne Sonneneinstrahlung, wird die Eisfläche erwärmt. Darum fällt die Temperatur im antarktischen Winter nicht nahe des absoluten Nullpunktes.
Sie spüren das, wenn sie in eine kalte windstille Nacht nackt ins Freie gehen, im Gegensatz zu einer warmen Nacht. Im einen Fall kühlen sie schnell aus und könnten gar erfrieren, im anderen Fall kann es sehr angenehm sein. Der Unterschied ist vor allem die differierende Gegenstrahlung.
Die kalkulatorische Größe der Werte – es werden meist Mittelwerte angegeben – bestimmt sich aus dem Energie-Erhaltungssatz: Gehen sie von LTE aus, dass sie sich vereinfacht bei dt -> 0 vorstellen können.
In Worten: Zwischen zwei Zeitpunkten, die beliebig kurz hinter einander sein können, ändert sich die Temperatur nicht signifikant. Darum muss der Energiezufluss dem Energieabfluss entsprechen – und umgekehrt.
Und darum ist eine Bilanzierung völlig korrekt.
Ich halte es für richtig, wenn man nicht ohne Nachzudenken einfach dem glaubt, was einem die Wissenschaftler erklären wollen. Das ist auch nicht der Sinn der Wissenschaft. Darum halte ich Ihren kritischen Ansatz auch für grundsätzlich richtig.
Einiges aber bestätigt sich bei der Nachprüfung, auch wenn es zunächst unplausibel aussah. Eine kritische Herangehensweise, die aber die Problemlösung ignoriert, verliert auf der anderen Seite ihren Sinn.
#172: besso keks sagt:
Zitat: Es gibt auf jeden Fall kein Gesetz, daß ein IR-aktives Gas zwingt abzustrahlen, solange alternative, konkurrierende Entspannungswege offen stehen.
Diese anderen „Entspannungswege“ sind dem Molekül unter den gegebenen Bedingungen aber nicht zugänglich. Also, welche „alternative, konkurrierende Entspannungswege“ oder Energieverteilungs-Prozesse stehen dem Molekül offen?
Stöße sind ausgeschlossen, weil ein Molekülstoß die Schwingungsenergie nicht aufnehmen bzw. verteilen kann. Die Energie des Schwingungszustandes ist dE(f) = h*c/l = 6,6*10^-34*2,99*10^8/15*10^-6 = 1,31*10^-20 J und verglichen mit der Energie beim Molekülstoß dE(s) = k*T = 1,38*10^-23*300 = 4,14*10^-21 J.
Mfg
Werner Holtz
#173: Günter Heß sagt:
das Modtran Skript auf der Webseite setzt auch andere Gase und Aerosole nicht konsequent auf Null und hält die Temperatur bei Änderung der Zusammensetzung konstant.
———————–
Aher geehrter Herr Heß,
Ihre Beobachtung trifft offensichtlich zu. Beeinträchtigt das die Güte des Modelle, wenn man es im Normalbereich variiert, also wenn man nicht zu den Extremen kommt? Ich bin geneigt anzunehmen, dass diese Modellgrenzen nur bei den Extremen zu unzutreffenden Ergebnissen führen. Teilen sie diese Ansicht?
#167: P. Berberich sagt:
Verstehen Sie unter der konkreten Situation die molekulare Ebene? Dies ist die kleinste Größe einer „grid cell“. Doch dies ist nicht notwendig. Druck und Temperatur sind auch makroskopische Mittelwerte, die man messen kann.
————-
Sehr geehrter Herr Berberich
Ich sehe die Anwendung von physikalischen Gesetzmäßigkeiten in dem jeweiligen Fokus, indem diese erkannt wurden. So macht die Anwendung von Gasgesetzen und Fluiden auf molekularer Ebene keinen Sinn, denn sie beschreiben ja das zusammenspiel der Interaktionen und Wechselwirkungen. Allerdings denke ich nicht, dass es lediglich die Unterscheidung Sub-Atomar, Molekular, Mikroskopisch und Makroskopisch gibt, sondern der Begriff ‚Makroskopisch‘ ist Prozessabhängig. So können Zyklone nur auf dem Level betrachtet werden, in dem sie auch beobachtet werden, was mehrere Hundert Kilometer umfassen kann.
Dagegen kann die Evaporation einer Oberfläche nur im Kontext eine naturräumlichen Homogenität angesetzt werden. Die Evaporation einer Mischfläche aus Asphalt, Wiese, umgebrochenen Ackerland und einem dichten Laubwald ergibt keine leicht verständlichen Ergebnisse oder Kurvenverläufe bei gegebener Temperatur, Einstrahlung, Wind, Luftfeuchte und Bodenfeuchte.
Hier ist der Ansatz von Mittelwerten m.E. sehr problematisch, denn man beschreibt nicht mehr einen beobachtbaren und prüfbaren Prozess. Der Fokus ist also von der Beobachtung eines Prozesses abhängig.
————– #167: P. Berberich sagt:
Die Navier-Stokes-Gleichung bezieht sich auf makroskopische Größen. Die Wetter-Vorhersage-Modelle bauen auf dieser Gleichung auf. Man sollte vielleicht erst die Grenzen dieser Modelle diskutieren um die Leistungsfähigkeit von Klimamodellen abschätzen zu können.
—————-
Zum Einen beschreibt die Navier-Stokes-Gleichung einen beobachtbaren und prüfbaren Prozess. Es geht um das Stömungsverhalten von Fluiden unter Beachtung der Viskosität und bilden Turbulenz und Grenzschichten ab. Deren Einsatz in der Meteorologei macht vereinfachte Annahmen ohne detaillierte Verrechnung naturräumlicher Details . Unter anderem sind die Abschätzungen dieser Makro-Größen um ggf. mehrere Dimensionen einer der Gründe, warum die Reichweite einer Wettervorhersage zeitlich begrenzt bleibt.
Meteorologische Modelle sind aber grundsätzlich anders strukturiert wie Klimamodelle, die gar keine kurzräumige Wettervorhersage resultieren wollen. Klimamodelle starten auch nicht mit einem bestimmten Druckszenario und Zyklonmuster, sondern setzen sich ein oder mehrere Abstraktionsebenen über einem Wettermodell an. Somit ist die Frage, ob diese Abstraktionsschritte denn noch eine zutreffende Abbildung liefern erfolgskritisch. Eine Zutreffende Abbildung würde eine korrekte Abstraktion der physikalischen Verhältnisse auf dem gewählten Grid-Size erforderlich machen. Bereits kleine Abweichungen können in chaotischen Systemen zu völlig anderen Funktionsverläufen führen.
Meine fundamentalen Zweifel an der Brauchnbarkeit von CGMs noch mal zusammen gefasst:
1. Die Wirkung auf Prozess-Ebene (z.B. Wolkenbildung) ist nur unzureichend bekannt.
2. Die Effekte sind qualitativ und quantitiv nur unzureichend beschreiben: Wie wirkt sich der variabel Sonnenwind, Sonnenspektren und kosmische Strahlung aus? Die Annahme, dass diese Einflüsse marginal sind, darf massiv bezweifelt werden. Auch ist die Frage, wie sehr die ozeanischen Zyklen, Sonnenzyklen etc. berücksichtigt werden, völlig unklar.
3. CO2 Quellen und Senken sind unzureichend beschrieben. So überraschten Satellitenmessungen, dass Urwälder keineswegs CO2 Senken darstellen, dafür aber aride Gebiete – z.B. Australien.
4. Massebilanzen der Eiskörper der Antarktis und Grönlands weisen oft gegenläufige, bzw. stark divergierende Werte auf. Ein Zusammenhang mit dem Klimawandel bleibt darum nur in einem weiten Fehlerband darzustellen.
5. Ebenso unzureichend ist die Feststellung der Meerestemperaturen. Diese sind regional und bezogen auf den Tiefenhorizont im Kontext der Strömungen weitgehend zu grob, wenn überhaupt abzubilden.
6. Meteorolgische Systeme verhalten sich meist chaotisch: Es bilden sich Großwetterlagen heraus, die oft schwer langfristig vorhersehbar sind. Ob es hier statistische Trends gibt, die von wenigen Parametern gesteuert sind, und wie sich diese dann Verhalten ist weitgehend nicht begründet ermittelbar. Statistiken zeigen keine klaren Trends und das vermeintliche Signal-Rausch-Verhältnis ist sehr ungünstig.
7. Prozessuale Abstraktionsbildung auf festen Grid-Sizes, die über 100 km umfassen, können die prozessuale Wirkung grundsätzlich nicht darstellen. Statistische Mittel sind angesichts des chaotischen Charakters völlig unzureichend, um eine prozessnahe Modellierung durchzuführen.
Unter diesen Umständen ist der Versuch eines GCMs, der realitätsnah die Klimaentwicklung abbildet, äußerst verwegen und erinnert an die Quadratur des Kreises. Es sind gleich eine Reihe von k.o.-Kriterien erfüllt.
Kurz: Sie ist gar nicht in aussagekräftiger Güte zu erwarten – und zwar grundsätzlich nicht.
Andere bezeichnen diese darum zutreffend als Spielzeug-Modelle.
Lieber Herr Landvogt #171,
das Modtran Skript auf der Webseite setzt auch andere Gase und Aerosole nicht konsequent auf Null und hält die Temperatur bei Änderung der Zusammensetzung konstant. Das heißt durch die tropische Atmosphäre ist sehr viel gasförmiges Wasser enthalten das thermisch emittiert. Nimmt man nun die thermische Emission des CO2 weg spielt das keine große Rolle.
Übrigens wenn sie sich den Outputfile anschauen bleibt in der Stratosphäre Wasserdampf in dem Modtranskript egal welche Werte sie sie setzen.
#170: Günter Heß sagt:
Liebre Herr Keks #169,
„die Gegenstrahlung ist die thermische Emission aus der gesamten Atmosphäre, nicht eine etwaige Reemission der absorbierten Strahlung. Die Gegenstrahlung ist wenn sie das Wort Reemission gebrauchen möchten die Reemission der Stoßanregungung. Besser ist es sie schlichtweg als thermische Eigenemission der Atmosphäre Richtung Oberfläche zu betrachten.“
Hallo Herr Heß,
Zustimmung bis auf die „gesamte Atmosphäre“.
Am Boden kommt bezüglich CO2 höchstens die thermische Strahlung aus dem 10m Streifen an (Für H2O mag eine andere Höhe richtig sein).
„Herr Landvogt zeigt eine Messung derselben. Das Integral über den Bereich des CO2 aus der Messung ergibt etwa 90 W/m2 abgeschätz. Ein vergleichbares Ergebnis bekommt man aus Modtran für 400 ppm CO2, wenn man alles andere auf Null setzt.“
Ich kann mir nicht vorstellen, daß 400ppm CO2 der 10m-Schicht 90W/qm Strahlungsleistung aus thermischer Eigenstrahlung an den Boden abgeben kann, wenn der Boden selbst über den gesamten Abstrahlbereich eines Schwatzkörpers lediglich ~350W/qm aufbringen kann.
Man muß da nur mal die beteiligten Massen betrachten.
„Sie können sich auch folgendes klarmachen. Angenommen es existierte ein Gas das IR aktive Zustände hätte die bei 273K schon angeregt werden könnten wie das bei CO2 der Fall ist und dieses Gas würde nicht bei den Wellenlängen dieser Zustände thermisch emittieren.
Dann wären unsere Energieprobleme gelöst, weil wir vom Prinzip her ein Perpetuum Moboile bauen könnten.“
Keine Ahnung, wie Sie daraus ein Perpetuum Mobile bauen wollen.
Es gibt auf jeden Fall kein Gesetz, daß ein IR-aktives Gas zwingt abzustrahlen, solange alternative, konkurrierende Entspannungswege offen stehen. Siehe auch Hug mit Verweis auf Jablonski.
Außerdem habe ich nichts gegen das Bisschen thermische Strahlung des CO2.
Ich sehe nur nicht, wie die paar Gramm CO2 in der 10m-Schicht bei 15°C ganze 90W/qm
an den Boden abgeben sollen (gut ein Viertel der gesamten Abstrahlleistung des Bodens!!!)
„Die Aussage, dass CO2 nicht emittiert ist also nicht nur durch Messungen widerlegt wie Herr Landvogt oben zeigt, sondern verstößt auch gegen die Grundprinzipien der Physik.“
Nein, tut es nicht. Unabhängig davon kann es gerne mit Eigentemperatur strahlen.
Nebenbei bemerkt: ich kann mich gut an die Anfänge der Diskussion um das Treibhaus hier auf EIKE erinnern:
erst gabs die Schicht in 8000m Höhe, die die IR-Strahlung des Bodens zurück reflektiert, dann war es der Strahlungstransport, der die Bodenabstrahlung als Gegenstrahlung zurückbringt.
Jetzt soll die thermische Eigenstrahlung einer 10m-Schicht mit 400ppm die Quelle für die Gegenstrahlung in immer noch gleicher Stärke sein.
pffffffffffffffffffffffffft
MfG
#170: Günter Heß sagt:
Das Integral über den Bereich des CO2 aus der Messung ergibt etwa 90 W/m2 abgeschätz. Ein vergleichbares Ergebnis bekommt man aus Modtran für 400 ppm CO2, wenn man alles andere auf Null setzt.
————–
Sehr geehrter Herr Heß
Zunächst danke für die argumentative Unterstützung. Ich habe den Eindruck, dass einige meinen, wer nicht zu einer Radikalopposition in Sachen Treibhauseffekt kommt, würde bereits zum Lager der AGW-Propagandisten gehören. Das ist bedauerlich, denn es speltet die vernünftige Kritik. Immerhin sollte die Kritik jener, die intellektuelle Redlichkeit als wichtige Voraussetzung für eine überzeugende Argumentation erachten, auch schlagkräftigere Beiträge liefern können. Denn wie kann man Vernunft von der Allgemeinheit und den Meinungsgegnern erwarten, wenn man diese selbst nicht demonstriert.
Zu ihrem Beitrag … ich habe das nachgestellt:
Tropische Atmosphäre, wolkenlos, 0 km Höhe ‚Looking up‘
Wenn ich nur die 400 ppm CO2 auf 0 reduziere, erhalte ich eine Differenz von -7.22 W/m2
bei einem Strahlungsinput von 340.69 W/m2
wenn ich alle IR-aktiven Bestandteile der Luft auf Null setze, erhalte ich nur 27.987 W/m2 … also ist hier die solare Einstrahlung nicht enthalten. Ist das so zu verstehen, dass Modtran eben die anderen Frequenzen der solaren Einstrahlung nicht rechnet und nur den thermischen Anteil darstellt? Oder ist das außerhalb des Modellbereiches, dass Modtran hier keine vernünftigen Werte mehr angibt?
Wenn ich nur den Water Vapor Scale bei 1 lasse, kommt immerhin ein vernünftiger Wert heraus: Differenz -9.42 W/m2
Methan und Ozon machen dann einzeln betrachtet eine Differenz von -1.88 W/m2
Water Vapor auf 0 reduziert, bei 400 ppm CO2 führt zu einem IR Heat Flux 101.736 W/m2
IR Heat Loss (Background) 347.91 W/m2
… Difference, New – BG -246.18 W/m2
Wenn diese Werte stimmen, zeigt es, dass Wasserdampf um Dimensionen stärker wirkt als CO2, aber ich zweifele, ob Modtran in diesem Bereich richtig rechnet. Denn bereits bei einem Water Vapor Scale von 0.01 haben wir nur naoch eine Differenz von -140.61 W/m2
Wenn man dann CO2 auf 0 reduziert, ist die Differenz -68.51 W/m2.
Einerseits könnte man hinsichtlich der Pausibilität der Zahlen meinen, dass sich die einzelnen Komponenten eben überlagern, darum kann man nicht einfach Netto-Werte rechnen.
Dennoch erscheinen die Zahlen in den Extrembereichen der Simulation sehr merkwürdig. Ich vermute, dass die Rechnung dann außerhalb des zulässigen Bereichs liegt.
Liebre Herr Keks #169,
die Gegenstrahlung ist die thermische Emission aus der gesamten Atmosphäre, nicht eine etwaige Reemission der absorbierten Strahlung. Die Gegenstrahlung ist wenn sie das Wort Reemission gebrauchen möchten die Reemission der Stoßanregungung. Besser ist es sie schlichtweg als thermische Eigenemission der Atmosphäre Richtung Oberfläche zu betrachten.
Herr Landvogt zeigt eine Messung derselben. Das Integral über den Bereich des CO2 aus der Messung ergibt etwa 90 W/m2 abgeschätz. Ein vergleichbares Ergebnis bekommt man aus Modtran für 400 ppm CO2, wenn man alles andere auf Null setzt.
Sie können sich auch folgendes klarmachen. Angenommen es existierte ein Gas das IR aktive Zustände hätte die bei 273K schon angeregt werden könnten wie das bei CO2 der Fall ist und dieses Gas würde nicht bei den Wellenlängen dieser Zustände thermisch emittieren.
Dann wären unsere Energieprobleme gelöst, weil wir vom Prinzip her ein Perpetuum Moboile bauen könnten. Die Aussage, dass CO2 nicht emittiert ist also nicht nur durch Messungen widerlegt wie Herr Landvogt oben zeigt, sondern verstößt auch gegen die Grundprinzipien der Physik.
#165: Martin Landvoigt sagt:
„—————- #160: besso keks sagt:
Ich halte diesen Unterschied aber für die genannte Aufgabe aber nicht für so entscheidend:
Hug sagt ja, daß es in der bodennahen Atmosphäre praktisch keinen Strahlungstransport gibt.
————–
Das eben nicht! Eine hohe Extimktion im 15 Mm Band heißt eben nur, dass es keine Transmission von der originalen Quelle direkt durch die Schicht gibt. Davon bleibt unberücksichtigt, dass es sowohl Absorption als auch Emission gibt. Auf diesem Wege bildet sich ein Gradient in der Schicht aus, die allerdings einen Strahlungstransport entspricht.“
Nein!
Alle Strahlung des Bodens wird im relevanten Bereich absorbiert. Alle!
Eine Reemission dieser Strahlung gibt es aufgrund der Thermalisierung nicht.
Die Thermalisierung führt zu einer höheren Eigentemperatur des Gasvolumens und erhöht dadurch lediglich dessen thermische Eigenstrahlung (Wenn überhaupt…)
Und verstärkt natürlich insbesondere die Konvektion.
„————– #160: besso keks sagt:
Das müßte doch unabhängig von irgendwelchen Tabellenwerten und Systembetrachtungen möglich sein. Oder nicht?
————-
Man kann zwar ausrechnen, wie sehr das CO2 bei einer gegebenen Temperatur und Dichte strahlt, aber es findet zugleich auch immer eine wieder-Absorption aus dem Volumen heraus statt. Darum ist es nicht so einfach.“
Ich habe nicht gesagt, daß es „einfach“ ist. Wäre es einfach, könnte ich es selbst 😉
„————– #160: besso keks sagt:
Die selbe Rechnung kann dann angestellt werden mit 800ppm und entsprechend korrigierter Absorptionslänge. Oder nicht?
————–
Mit Modtran ist das Ergebnis der Differenz zwischen 400 ppm und 800 ppm 1.57 W/m2
Merke: Es gibt keinen linearen Zusammenhang zwischen CO2 und Strahlung.“
Nun, es wird aber auch keine Sprünge geben.
Modran gegenüber bin ich so skeptisch, wie man dem Treibhausgeschreibsel gegenüber nur sein kann.
„————– #160: besso keks sagt:
Immer vorausgesetzt, daß bei einem Bar wirklich was strahlt…
————–
Dazu die Messung http://tinyurl.com/jooc842“
Na ja, „Messungen“ haben wir hier schon genug gesehen. Ich erinnere nur an dien Hamburger Wettermast und das dort verwendete „Messgerät“.
Z.B. AERI:
„The AERI was designed by the University of Wisconsin Space Science and Engineering Center (UW-SSEC) for the Department of Energy (DOE) Atmospheric Radiation Measurement (ARM) program. AERI instruments have been deployed worldwide at ground-based fixed and mobile sites, as well as in marine deployments.“
Hat für mich den Geruch einer Treibhäuslerentwicklung.
Es geht in diesem Bereich nichts über den Helium gekühlten Sensor!
„————– #160: besso keks sagt:
Und alles, wirklich alles, was über diesen 10m in der Atmosphäre an Strahlungsvorgängen passiert ist dem Boden egal.
————–
Nicht ganz, denn ein wesentlicher Teil des Wärmeflusses geschieht über den Strahlungstransport, das bestimmt auch den Temperaturgradienten, der wieder das Abstrahl-Verhalten bestimmt. Also: Selbst wenn man sich auf den reinen Strahlungstransport konzentriert, gibt es noch immer Rückkopplungen.“
Falsch!
Der Strahlungstransport funktioniert erst in größeren Höhen.
Bis dahin gibt es Konvektion.
Das Abstrahlverhalten in großer Höhe (direkt ins All) wird bestimmt von der vorhandenen Energie (Temperatur). Und diese wird zwar auch von Strahlung (aus dem Strahlungstransport), aber in erster Linie von Konvektion bestimmt, da diese der Flaschenhals zwischen Boden und den Höhen ist,
wo Strahlungstransport möglich ist.
„————– #160: besso keks sagt:
Mit einer Ausnahme: erhöht die steigende CO2-Konzentration die Abstrahlung ins All, verliert das System Energie und der Temperaturgradient in der Atmosphäre steigt.
—————-
Auch dieser Vorgang ist ein wenig komplizierter:
Es kann ja nicht mehr Energie abgestrahlt werden, als vorher empfangen wurde. Aber durch die größere Eigen-Absorption verschiebt sich der Abstrahl-Horizont nach oben.“
Selbstverständlich kann mehr abgestrahlt werden als empfangen wird.
Zumindest solange die Eigentemperatur des Erdsystems größer °K ist.
Es gibt ja kein Gesetz, was ein Strahlungsgleichgewicht TOA erzwingt.
Messungen zeigen ja , daß kein Gleichgewicht herrscht und Gerlich/Teuschner haben der Größe der Trägheit des Erdsystems einen eigenen Absatz gewidmet.
Auch das IPCC weist ja von sich aus auf diese Tatsache hin (einer der Dauerlinks von Herrn Dr. Paul)
„————– #160: besso keks sagt:
Das würde die Rückstrahlung des Raumvolumens zum Boden beeinflussen.
————–
Indirekt. Die lapse rate (atmosphärischer Temperaturgradient wird nur unwesentlich beeinflusst, durch die Anhebung des Abstrahl-Horizontes kann man auch die Anhebung der mittleren Bodentemperaturen verstehen.“
Eine Rückstrahlung Richtung Boden ist möglich, solange der Strahlungstransport funktioniert. Folge ist eine angehobene Temperatur in den entsprechenden Höhen verbunden mit einer Reduktion der vertikalen Konvektion.
MfG
Lieber Herr Landvoigt, #159
Ihre Punkte will ich noch komplettieren.
„2. Innerhalb der Grid cell wird mit jeweils statistischen Variablen gearbeitet. D.h. die jeweiligen Parameter werden über die Zelle gemittelt und damit gerechnet. Die jeweilige kleinräumigen Verhältnisse im physikalischen Kontext werden nicht im Detail verrechnet. Korrekt oder nicht?“
Ich habe Ihnen nun hoffentlich mit #166 so viel erklärt, Daß Sie Ihre Irrtümer erkannt haben. Die Sache ist natürlich noch etwas komplexer aber das bringt Sie jetzt nicht weiter. Sie müssen erstmal die GCMs grundlegend korrekt verstehen und Ihre fehlerhaften Vorstellungen davon revidieren. Die subskaligen Prozesse innerhalb des grids werden tatsächlich berechnet. Der Modelloutput sind ja Zeitreihen für jeden grid-Punkt für jede berechnete physikalische Größe. Man kartiert der Globus mit den grid Ergebnissen. Die Auswirkung der subskalig (im grid Gitter) wirkenden Prozesse auf die physikalischen Zustände in den grid-Punkten werden ja durch die Parametrisierung berechnet.
„3. Eine detaillierte Rechnung über komplexe Systeme sind damit aber grundsätzlich nicht möglich, denn sie liefern keine empirisch prüfbaren Werte. Sie unterscheidet sich damit erheblich von Ihrem vorgetragenen Vergleich, der damit invalide ist.“
Wie gesagt, man testet die Ergebnisse der Parametrisierung natürlich schon mit den Beobachtungen. Man macht ja so auch das tuning, indem man die Parametrisierungsparameter so (im Rahmen physikalisch möglicher Werte natürlich) modifiziert, daß die Beobachtungen im der Einzelprozesse (wie Tröpfchenspektrum etc.) passen. Die Parametrisierung muß natürlich auch ein wenn auch vereinfachtes physikalisches Modell sein und die Beobachtungen erklären. Ein Beispiel ist die bei den Wettervorhersagemodellen benutzte Parametrisierung der Konvektion oder der Wolkeneigenschaften. Die Parametrisierung eines subskaligen Prozesses vergleicht man auch durch Modellierung mitgrößerer Detailtiefe. Man kann also so feststellen, ob die durch die Parametrisierung in Kauf genommene vergröberte Beschreibung des Einzelprozesses im Vergleich zur detaillierten Modellierung auf Basis fundamentalerer Gleichungen akzeptabel ist, wie also die Fehler mit der grid-Größe skalieren. Und damit, ob die beim globalen CM gewählte grid-Größe noch hinreichend genaue Werte liefert.
„Sie unterscheidet sich damit erheblich von Ihrem vorgetragenen Vergleich, der damit invalide ist.“
Nein, das haben Sie wieder mal nicht verstanden.
„Sie vergleichen Äpfel mit Birnen. Die CGMs rechnen auf Basis von sich verändernden Systemen und wollen damit Aussagen über die Realität machen. Sie müssen damit also zu den Beobachtungen der realen Welt passen, wenn sie nicht völlig irrelevante Spielzeug-Daten liefern wollen.“
Was sind hier die Äpfel und was die Birnen? In dem Satz, den Sie hier kommentieren, habe ich Ihnne nur erklärt daß Ihre Vorstellung, daß GCMs die zukünftige Klimaentwicklung durch Extrapolation aus einem Modell fürs gegenwärtige Klima gewinnen, falsch ist. Im Modell wird nichts extrapoliert, man ändert nur die Randbedingungen. Ich erkläre Ihnen dies nochmal mit dem Motormodell a): ein einmal so konstruiertes physikalisches Modell funktioniert auch bei einem Modellmotor, der einen anderen Zylinderdurchmesser hat als der Modellmotor, an dem Sie das Modell validiert haben. Denn es handelt sich ja um ein physikalisches Modell, was ein Abbild der universell gültigen Naturgesetze darstellt. So läuft dies bei GCMs auch, wenn man die Randbedingungen verändert. Die bei den Klimaprojektionen veränderten Randbedingungen wie ein erhöhtes CO2 radiative forcing von z.B. 3 W/m2 ist ja im Vergleich zu dem Bereich des bei der Validierung überstrichenen Strahlungsbereichs von einigen 100 W/m2 durch tägliche und saisonale Variation nur ein kleiner offset.
„die sich natürlich als Extrapolation korrekt bezeichnen lassen.“
Nein, das ist -wie schon erklärt- falsch. Da die Projektionesergebnisse nicht durch Extrapolationen entstehen, ist die Bezeichnung als eine solche falsch und irreführend!
„Ich habe Sie bereits oben aufgefordert, dass sie die Logik nicht in offensichtlich sinnentstellender Weise bemühen sollten. Darum nochmals:“
Nun, wenn Sie mich nicht verstehen, so fragen Sie mich konkret.
„„Ich habe Ihnen doch schon erklärt, daß man das ‚tuning‘ so macht, daß der modellierte Einzelprozeß mit den Beobachtungen des Einzelprozesses gut zusammen passen soll. Man betrachtet das Gesamtsystem dabei nicht. Sie sehen an der Variation der Modellergebnisse untereinander, daß sich Ihre befürchtete „Fragilität“ in Grenzen hält.“
Und ich habe Ihnen gesagt, dass ich ihrer Darstellung nicht folge. Ich behaupte, dass derartig selbstkonsistente Modell ohne Abgleich mit Beobachtungsdaten gar nicht sinnvoll möglich sind.“
Ähm, also oben habe ich explizit geschrieben „daß der modellierte Einzelprozeß mit den Beobachtungen des Einzelprozesses gut zusammen passen soll“. Sie antworten darauf „dass derartig selbstkonsistente Modell ohne Abgleich mit Beobachtungsdaten“. Können Sie nicht lesen, oder verdrehen Sie meine Aussage mit Absicht? Ich habe offensichtlich das Gegenteil dessen geschrieben, was Sie mir unterstellen!!
„Um es deutlich zu sagen: Ich halte Ihre Behauptung, dass genau das nicht geschähe, für rundum gelogen.“
Darf ich von Ihnen jetzt auch nun genau erfahren, was ich erlogen haben sollte? Ich komme bei Ihren Vorstellungen nicht mehr ganz mit. Ich habe geschrieben, daß man beim tuning der Einzelprozesse das Gesamtergebnis des GCMs nicht heranzieht, sondern die Beobachtungen des Einzelprozesses. Ein Beispiel: Sie wollen das Tropfenspektrum einer Kumuluswolke fürs GCM parametrisieren und tunen ein paar Parameter, die dieses Spektrum quantifizieren. Dazu vergleichen Sie natürlich das durch die Parametrisierung modellierte Tropfenspektrum mit Messdaten an realen Kumuluswolken und tunen danach, daß beide möglichst übereinstimmen, aber nicht danach, daß der damit modellierte Klimaverlauf möglichst gut mit der Realität übereinstimmt. Das Modell soll ja ein physikalisches Modell sein und nicht nur das Klima (auf umständliche Art) fitten.
„Die Vergleichbarkeit der Modellergebnisse lassen keinen Schluss zu, dass diese damit eher der Realität entsprechen wenn sie ausdrücklich nicht mit der Realität abgestimmt sind“
Wieder nicht verstanden… Wenn verschiedene Parametrisierungen von Einzelprozessen im Gesamtergebnis konsistente Ergebnisse reproduzieren und zudem (natürlich) auch noch die Beobachtungen. Sie sehen doch, daß die Modelle insgesamt den Klimaverlauf konsistent reproduzieren. Die Abweichungen von Modell und Beobachtungen in Form von „Hiatusse“ sind ja klein im Vergleich zur reproduzieren Verlauf. Also können bei einem solch komplexen System die Modelle nicht so schlecht sein, wenn Sie aus beobachteten Randbedingungen das beobachtete Klima mit einer gewissen Genauigkeit reproduzieren, so sollte sie auch davon leicht abweichende Randbedingungen das zugehörige Klima mit vergleichbarer Genauigkeit berechnen können.
„- sondern das man gemeinsamen Grundannahmen folgt, die beliebig falsch sein können.“
Nun gemeinsame Grundannahme ist die allgemein bekannte Physik rein? Bei der Parametrisierung derselben gibt es „Gestaltungsspielraum“, aber die Modelle der Parametriserung werden ja auch an den Beobachtungen der damit beschrieben Einzelprozesse getestet.
„Eine Kombination mehrer, jeweils für sich stehender ‚korrekter‘ Wörter ergibt damit keinen notwendig zutreffenden Satz.“
Ja, aber genau das trifft ja bei den GCM zu. Im GCM wirken die Einzelprozesse zusammen und das Gesamtergebnis reproduziert nach das beobachtete Klima.
„Meine Kritik war ja auch, dass bei diversen Einzelprozessen, z.B. der Wolkenbildung, noch keine hinreichend genaue Bestimmung möglich ist, um zuverlässige Vorhersagen treffen zu können.“
Nun, aber Ihre Kritik ist substanzlos. Grundsätzlich funktioniert das doch auch bei der Wettervorhersage. Was meinen Sie dazu?
„Ich habe zur Kenntnis genommen, dass die globale Wolkenbedeckung schwankt, aber bislang von keiner hinreichenden Modellierung gehört, die diese erklärt.“
Was meinen Sie konkret, zeitlich oder räumlich? Ich habe nicht gehört, das die Wolkenbedeckung in den Beobachtungen zeitlich stärker schwankt als modelliert wird.
„und das sie dem vorher vehement widersprachen: Ein Abgleich mit der Realität.“
Sie haben mich da nicht verstanden. Ich hoffe Sie kapieren es mit dem oben gesagten jetzt besser.
„Ihre vorgeschlagenes Kriterium ist – so weit ich es erkennen kann – die Ähnlichkeit von Modellen, denen Sie eine hinreichende Unabhängigkeit unterstellen.“
Das haben Sie – wie gesagt – völlig falsch „erkannt“. Ihre Schlußfolgerung ist somit falsch.
#163 Martin Landvoigt sagt:
„Für Teilmodelle wie MODTRAN kann man dies bestätigen, aber die Bedeutung dieser Herleitung in CGMs bleibt gewagt. Hier werden nicht konkrete Situationen, sondern gemittelte Szenarien auf grid cell-Ebene berechnet, die auf nicht transparenten Durchschnitten aufbauen können.“
Verstehen Sie unter der konkreten Situation die molekulare Ebene? Dies ist die kleinste Größe einer „grid cell“. Doch dies ist nicht notwendig. Druck und Temperatur sind auch makroskopische Mittelwerte, die man messen kann. Die Navier-Stokes-Gleichung bezieht sich auf makroskopische Größen. Die Wetter-Vorhersage-Modelle bauen auf dieser Gleichung auf. Man sollte vielleicht erst die Grenzen dieser Modelle diskutieren um die Leistungsfähigkeit von Klimamodellen abschätzen zu können.
Lieber Herr Landvoigt, #159
„Ich nehme zur Kenntnis, dass sie meine Argumente zur Kritik am CGM ansatz missachten und in ihren Argumenten ignorieren. Was also sei die Realität?“
Ich korrigiere eigentlich Ihre Fehler. Wenn ich zu Ihren richtigen Aussagen nichts schreibe, so heißt das nicht, daß ich sie ignoriere.
„1. Trifft es zu, das CGMs mit Grid-Sizes von meist mehr als 100 km Kantenlänge arbeiten oder nicht? Nach meinen Recherchen ist das so.“
Stimmt etwa für die globalen GCMs. Für regionale Klimamodelle geringer.
„2. Innerhalb der Grid cell wird mit jeweils statistischen Variablen gearbeitet. D.h. die jeweiligen Parameter werden über die Zelle gemittelt und damit gerechnet.“
Ja und Nein. Das hängt von der physikalischen Größe ab. Größen wie Temperatur, Windvektor, Luftdruck, Vorticity, Dampfdruck, Bodentemperaturen, Strahlungs- und sonst. Energieflüsse etc. und davon abgeleitete Felder werden ja für jeden grid-Punkt dynamisch aus den Parametern des gesamten grids und den im grid definierten externen Randbedingungen nach den Differentialgleichungen berechnet. Wie schon unzählige Male erklärt berechnet ein physikalisches Modell (wie das „Motormodell“ nach a) oder die GCMs) diese Parameter numerisch aus dem Differentialgleichungssystem der entsprechenden fundamentalen physikalischen Gesetzen in jedem grid-Punkt. Die Lufttemperatur z.B. aus dem 1. HS der Thermodynamik oder davon abgeleiteten Gleichungen, der Wind oder die Meeresströmungen aus den Navier-Stokes-Gleichungen der Hydrodynamik, die Bodentemperaturen aus der Wärmeleitungsgleichung etc.
Parametrisiert werden nun komplexe Größen wie Wolkenbedeckungsgrad – und art, Niederschlagsmenge- und Art, Albedo, Vegetationsindizes, chemische Zusammensetzung, Austausch, Reibungstensoren, etc.. Deren Berechnung aus den fundamentalen Gleichungen der Physik ist zu kompliziert wäre. Daher greift man dafür auf separat getestete quantitative Zusammenhänge zurück. Z.B. die Beschreibung turbulenter Prozesse bei der Konvektion durch Austausch, Berechnung von Vegetationsindizes durch Multiregressionen mit anderen Parametern etc. Diese Parametrisierungen werden natürlich mit Realdaten getestet. Die heutigen Beobachtungsdaten überdecken durch räumliche und zeitliche Variation des Wetters und Klimas einen Raum, der die Zustände in einem veränderten Klimas auch abdeckt.
„Die jeweilige kleinräumigen Verhältnisse im physikalischen Kontext werden nicht im Detail verrechnet. Korrekt oder nicht?„
Die nötige Tiefe der Detailrechnung kann man ja anhand der Beobachtungen testen.
„3. Eine detaillierte Rechnung über komplexe Systeme sind damit aber grundsätzlich nicht möglich, denn sie liefern keine empirisch prüfbaren Werte. Sie unterscheidet sich damit erheblich von Ihrem vorgetragenen Vergleich, der damit invalide ist.“
Braucht man ja auch nicht. Klar ist ja, daß das physikalische Klimamodell nur das Klima und nicht das Wetter in jedem grid-Punkt modellieren soll. Wie das „Motormodell“ a) kann man bei einem GCM dann, wenn das Modell auf physikalischer Basis arbeitet, auch „Experimente“ machen für Randbedingungen außerhalb des Validierungsraumes. Mich stört an Ihren Argumenten, daß Sie ohne inhaltlichen physikalischen Grund solche Anwendungen als nicht „aussagekräftig“ einstufen. Eine solche Beurteilung ist nur quantitativ diskutierbar – nicht pauschal mit blumigen Firlefax !
Im übrigen sind GCM deduktiv. Das deduktiv bezieht sich auf die Durchführungsmethode (nämlich deduktiv aus den physikalischen Grundgesetzen zu Ergebnissen in Form eines Modell fürs Klima zu kommen im Gegensatz zur induktiven Methode, bei der nach nur aus Beobachtungen ein Modell entwickelt) und nicht ob Sie das nachvollziehen können oder nicht!
Lieber Herr Berberich, #162
„Sehr geehrte Herren Landvoigt und NicoBaecker,
ich verfolge Ihre Diskussion schon seit einiger Zeit mit Interesse. Ich befürchte, dass im Augenblick die Diskussion zu keinem konstruktivem Ergebnis führt. Man sollte sich zunächst auf einen Grund-Konsens einigen:“
Ganz richtig!
So wie ich ihn verstehe, bezweifelt Herr Landvoigt aber bereits Punkt (2), weil der die eine falsche Vorstellung davon hat, wie dem Klimamodellieren „Gesetzmäßigkeiten durch Abstraktion experimenteller Ergebnisse“ abgeleitet werden.
#160: besso keks sagt:
Sie haben recht, eine mittlere freie Wegstrecke von 16m ist was anderes als 99,4% Absorption nach 10m.
—————
Sehr geehrter Herr Keks
Ich bin mir nicht ganz im klaren, was hier mit mittlere freie Wegstrecke gemeint ist. Wenn gilt: ‚Die mittlere freie Weglänge \lambda ist die durchschnittliche Weglänge, die ein Teilchen (z. B. Atom, Molekül, Ion oder Elektron) in einem gegebenen Material ohne Stoß (irgendeiner Art) mit anderen Teilchen zurücklegt.‘
Dann ist die Berechnung von Herrn Holtz irrtümlich, denn er rechnet von 400 ppm. Ein Stoß aber erfolgt mit sehr viel höherer Wahrscheinlichkeit mit eine N2 oder O2 Molekül im mm oder cm Bereich.
Herr Hug errechnete dagegen die Absorption. Die auch einen Rahmen für die Emission ergibt.
—————- #160: besso keks sagt:
Ich halte diesen Unterschied aber für die genannte Aufgabe aber nicht für so entscheidend:
Hug sagt ja, daß es in der bodennahen Atmosphäre praktisch keinen Strahlungstransport gibt.
————–
Das eben nicht! Eine hohe Extimktion im 15 Mm Band heißt eben nur, dass es keine Transmission von der originalen Quelle direkt durch die schicht gibt. Davon bleibt unberücksichtigt, dass es sowohl Absorption als auch Emission gibt. Auf diesem Wege bildet sich ein Gradient in der Schicht aus, die allerdings einen Strahlungstransport entspricht.
————– #160: besso keks sagt:
Also verbleibt als Quelle für die ominöse Gegenstrahlung nur die Eigenstrahlung des Raumvolumens über dem Boden.
————–
Ominös nur, weil Sie auf das falsche Pferd gesetzt sind.
————– #160: besso keks sagt:
Rechnet man nun mit Hug, ist eine angenommene Schichtdicke von 10m mehr als ausreichend genau.
————–
Für die vereinfachte Fragestellung ja. Allerdings ist noch immer nicht trivial, die Strahlungsleistung aus dem Volumen zu berechnen. Modtran bleibt eine gute Wahl.
————– #160: besso keks sagt:
Also lautet nun die Aufgabe:
Welche Strahlungsleistung (W/qm) gibt das Raumvolumen von 10m Schichtdicke an den Boden ab.
R.B: 15°C, 400ppm.
—————–
Immer noch der Wert aus Modtran als Differenz zwischen 0 ppm und 400 ppm in der tropischen Atmosphäre ohne Wolken und Regen über alle Bänder des CO2: 7.22 W/m2
————– #160: besso keks sagt:
Das müßte doch unabhängig von irgendwelchen Tabellenwerten und Systembetrachtungen möglich sein. Oder nicht?
————-
Man kann zwar ausrechnen, wie sehr das CO2 bei einer gegebenen Temperatur und Dichte strahlt, aber es findet zugleich auch immer eine wieder-Absorption aus dem Volumen heraus statt. Darum ist es nicht so einfach.
————– #160: besso keks sagt:
Die selbe Rechnung kann dann angestellt werden mit 800ppm und entsprechend korrigierter Absorptionslänge. Oder nicht?
————–
Mit Modtran ist das Ergebnis der Differenz zwischen 400 ppm und 800 ppm 1.57 W/m2
Merke: Es gibt keinen linearen Zusammenhang zwischen CO2 und Strahlung.
————– #160: besso keks sagt:
Die Höhe des Treibhauseffektes wäre dann der Unterschied zwischen den beiden Werten (die sich gefühlt kaum unterscheiden werden, da das relevante Strahlungsvolumen mit steigender Konzentration von CO2 geringer wird)
—————
Die Transmissivität sinkt mit steigender Konzentration, aber die Rückstrahlung steigt – leicht – an.
Der sogenannte Treibhaus-Effekt bezieht sich aber nicht rein auf die Oberfläche, sondern die bodennahe Lufttemperatur. Und die kühlt darum wesentlich weniger stark ab.
————– #160: besso keks sagt:
Immer vorausgesetzt, daß bei einem Bar wirklich was strahlt…
————–
Dazu die Messung http://tinyurl.com/jooc842
————– #160: besso keks sagt:
Und alles, wirklich alles, was über diesen 10m in der Atmosphäre an Strahlungsvorgängen passiert ist dem Boden egal.
————–
Nicht ganz, denn ein wesentlicher Teil des Wärmeflusses geschieht über den Strahlungstransport, das bestimmt auch den Temperaturgradienten, der wieder das Abstrahl-Verhalten bestimmt. Also: Selbst wenn man sich auf den reinen Strahlungstransport konzentriert, gibt es noch immer Rückkopplungen.
————– #160: besso keks sagt:
Mit einer Ausnahme: erhöht die steigende CO2-Konzentration die Abstrahlung ins All, verliert das System Energie und der Temperaturgradient in der Atmosphäre steigt.
—————-
Auch dieser Vorgang ist ein wenig komplizierter:
Es kann ja nicht mehr Energie abgestrahlt werden, als vorher empfangen wurde. Aber durch die größere Eigen-Absorption verschiebt sich der Abstrahl-Horizont nach oben.
————– #160: besso keks sagt:
Das würde die Rückstrahlung des Raumvolumens zum Boden beeinflussen.
————–
Indirekt. Die lapse rate (atmosphärischer Temperaturgradient wird nur unwesentlich beeinflusst, durch die Anhebung des Abstrahl-Horizontes kann man auch die Anhebung der mittleren Bodentemperaturen verstehen.
#161: P. Berberich sagt:
„ich möchte klar stellen, dass sich diese Folgerungen auf meine Auswertungen mit MODTRAN bezogen. Ich möchte Ihnen noch ein Auswertungsergebnis vorstellen. Modell-Version:
http://climatemodels.uchicago.edu/modtran/
Standard-Parameter, Altitude 0 km, tropical atmosphere, IR heat flux (W/m^2)
; Upward; Downward; Net
No clouds or rain; 417; 348; 69″
Lieber Herr Berberich,
das tztztztztz bezog sich auf das Fehlen des Strahlungstransportes un den unteren Schichten.
Das ist ja im Wesentlichen das, worauf Herr Dr. Paul nicht müde wird hinzuweisen.
Wenn wir also annehmen, Strahlungstransport gibt es gegen den Boden nicht, verbleibt lediglich die thermische Eigenstrahlung (sofern wir wenigstens daran glauben) der atmosphärischen Schicht innerhalb der Absorptionslänge über dem Boden.
Die Absorptionslängen sind je nach IR-aktivem Träger unterschiedlich lang,
bei CO2 c.a. 10m.
Ich werde NIE im Leben glauben, daß diese erste Schicht GAS im Fall ohne Bewölkung 348W/qm aus thermischer Eigenstrahlung zu Boden strahlt. Das ist fast der Bodenabstrahlwert („Schwarzkörper!!!) im Modell.
Darüber hinaus möchte ich wissen, wie hoch der Anteil der 400ppm CO2 daran sein soll.
Denn darum geht es eigentlich ja nur.
mfG
#162: P. Berberich sagt:
ich verfolge Ihre Diskussion schon seit einiger Zeit mit Interesse. Ich befürchte, dass im Augenblick die Diskussion zu keinem konstruktivem Ergebnis führt.
——————
Sehr geehrter Herr Berberich
Danke für ihr Interesse. Ich gehe auch nicht davon aus, dass wir zu einem Konsens kommen können, aber das liegt in der Natur der Sache: Ohne hinreichende Überprüfbarkeit bleiben diese Modelle fragwürdig.
Für mich ist es aber durchaus ein konstruktives Ergebnis, wenn man die Kritikpunkte formuliert und zur kritischen Prüfung einstellt.
————– #162: P. Berberich sagt:
Man sollte sich zunächst auf einen Grund-Konsens einigen:
(1) Klima-Modelle sind notwendig und nützlich.
——————
Dem würde ich nur in bedingter Form zustimmen:
Modelle sind in der Physik, auch Atmosphärenphysik unverzichtbar. Das schleißt jedoch nicht ein, dass jeder Modellansatz auch notwendig und richtig ist. Im Besonderen erscheint mir der gesamte CGM Ansatz weder notwendig noch nützlich zu sein, denn die Freiheitsgrade durch Unwissen und extreme Modellkomplexität, bei fehlender Prüfbarkeit liefert eher Aussagen, die eine falsche Sicherheit vorspiegelt.
————– #162: P. Berberich sagt:
(2) Die Modelle basieren auf den Gesetzmäßgkeiten der Naturwissenschaften, die auf der Abstraktion experimenteller Ergebnisse beruhen.
————–
Für Teilmodelle wie MODTRAN kann man dies bestätigen, aber die Bedeutung dieser Herleitung in CGMs bleibt gewagt. Hier werden nicht konkrete Situationen, sondern gemittelte Szenarien auf grid cell-Ebene berechnet, die auf nicht transparenten Durchschnitten aufbauen können.
————– #162: P. Berberich sagt:
(3) Ein Modell muss nachvollziehbar sein
————–
Ja !
————– #162: P. Berberich sagt:
(4) Ein Modell muss überprüfbar sein.
————–
Ja !
————– #162: P. Berberich sagt:
Die Kritik an den GCM-Modellen lässt sich hauptsächlich in den Punkten (3) und (4) einordnen. Mein Vorschlag wäre: die GCM-Modellierer konzentrieren sich mehr auf die Beschreibung zeitnaher Ereignisse wie das El-Nino-Phänomen, Smog, das Auftreten von Dürre-Perioden, usw.
—————-
Das verkennt allerdings den Charakter der CGMs, die gar keine Wettervorhersagen sein wollen, sondern die abstrakte Größe Klimawandel im Groben vorhersagen will. Aber auch her ist der Tod im Topf, denn nicht alle Einflüsse sind qualitativ und quantitativ hinreichend bekannt. Eine Modell-Abbildung bleibt damit auch im Best-Case beliebig ungenau, da die Anzahl der Variablen den Lösungsraum übersteigt. Es ist zwar kein lineares Gleichungssystem, aber es ist vergleichbar, als wollte man eine Lösung aus N Gleichungen suchen die aber N + X Variablen bestimmen soll.
#157, #159:
Sehr geehrte Herren Landvoigt und NicoBaecker,
ich verfolge Ihre Diskussion schon seit einiger Zeit mit Interesse. Ich befürchte, dass im Augenblick die Diskussion zu keinem konstruktivem Ergebnis führt. Man sollte sich zunächst auf einen Grund-Konsens einigen:
(1) Klima-Modelle sind notwendig und nützlich.
(2) Die Modelle basieren auf den Gesetzmäßgkeiten der Naturwissenschaften, die auf der Abstraktion experimenteller Ergebnisse beruhen.
(3) Ein Modell muss nachvollziehbar sein
(4) Ein Modell muss überprüfbar sein.
Die Kritik an den GCM-Modellen lässt sich hauptsächlich in den Punkten (3) und (4) einordnen. Mein Vorschlag wäre: die GCM-Modellierer konzentrieren sich mehr auf die Beschreibung zeitnaher Ereignisse wie das El-Nino-Phänomen, Smog, das Auftreten von Dürre-Perioden, usw.
#155: Besso Keks sagt:
„tz,tz,tz,…“
Sehr geehrter Herr Keks,
ich möchte klar stellen, dass sich diese Folgerungen auf meine Auswertungen mit MODTRAN bezogen. Ich möchte Ihnen noch ein Auswertungsergebnis vorstellen. Modell-Version:
http://climatemodels.uchicago.edu/modtran/
Standard-Parameter, Altitude 0 km, tropical atmosphere, IR heat flux (W/m^2)
; Upward; Downward; Net
No clouds or rain; 417; 348; 69
Cumulus cloud base; 417; 418; -1
Altostratus; 417; 404; 13
Stratus cloud base; 417; 420; -3
Nimbo stratus; 417; 424; -7
5 mm/hr light rain; 417; 423; -6
Standard Cirrus model; 417; 350; 67
LOWTRAN 6 model; 417; 350; 67
Man sieht, dass der Netto- IR- Fluss bei Bewölkung in den meisten Fällen negativ ist (Ausnahme Altostratus)
#158: Martin Landvoigt sagt:
„————- #156: besso keks sagt:
Als einzige Eingangsgröße reichen das Strahlungsvolumen, die Temperatur (15°C) und die Konzentration des CO2 (400ppm).
————-
Ich meine, man sollte es sich so einfach wie möglich machen, nur nicht einfacher. Das atmosphärische System, und darin der Strahlungstransport, ist physikalisch eine recht komplexe Angelegenheit. ich wüsste nicht, wie sie das einfacher als mit MODTRAN rechnen könnten.
————- #156: besso keks sagt:
Die mittlere freie Weglänge ist 16m.
————-
Ich habe gelesen, was #103: Werner Holtz sagte und wie Sie das in #119 interpretierten. Ich habe darauf hin erklärt, dass ich mit dieser Aussage nicht viel anfangen kann, denn diese Darstellung passt nicht zu diesen Ergebnissen: Heinz Hug hat dies experimentell bestimmt und vorgerechnet in: http://tinyurl.com/jbvlkl2“
Sehr geehrter Herr Landvoigt,
Sie haben recht, eine mittlere freie Wegstrecke von 16m ist was anderes als 99,4% Absorption nach 10m.
Ich halte diesen Unterschied aber für die genannte Aufgabe aber nicht für so entscheidend:
Hug sagt ja, daß es in der bodennahen Atmosphäre praktisch keinen Strahlungstransport gibt. Also verbleibt als Quelle für die ominöse Gegenstrahlung nur die Eigenstrahlung des Raumvolumens über dem Boden.
Rechnet man nun mit Hug, ist eine angenommene Schichtdicke von 10m mehr als ausreichend genau.
Also lautet nun die Aufgabe:
Welche Strahlungsleistung (W/qm) gibt das Raumvolumen von 10m Schichtdicke an den Boden ab.
R.B: 15°C, 400ppm.
Das müßte doch unabhängig von irgendwelchen Tabellenwerten und Systembetrachtungen möglich sein. Oder nicht?
Die selbe Rechnung kann dann angestellt werden mit 800ppm und entsprechend korrigierter Absorptionslänge. Oder nicht?
Die Höhe des Treibhauseffektes wäre dann der Unterschied zwischen den beiden Werten (die sich gefühlt kaum unterscheiden werden, da das relevante Strahlungsvolumen mit steigender Konzentration von CO2 geringer wird)
Immer vorausgesetzt, daß bei einem Bar wirklich was strahlt…
Und alles, wirklich alles, was über diesen 10m in der Atmosphäre an Strahlungsvorgängen passiert ist dem Boden egal.
Mit einer Ausnahme: erhöht die steigende CO2-Konzentration die Abstrahlung ins All, verliert das System Energie und der Temperaturgradient in der Atmosphäre steigt.
Das würde die Rückstrahlung des Raumvolumens zum Boden beeinflussen.
Also?
MfG