Es ist guter und grundsätzlich erwünschter Brauch in der Wissenschaft, jede neue Arbeit der gründlichen Kritik von Fachkollegen auszusetzen. Die Schärfe der Auseinandersetzung bei den Themen „Sonne und Wolken als Klimatreiber“ verwundert aber dennoch. Wie ist sie zu erklären? Zum einen steht der neue IPCC-Bericht vor der Tür, in den neue Erkenntnisse dieser Richtung wohl nicht hineinpassen. Zum anderen muss man kein Prophet sein zu erkennen, dass weltweit das Ende der politischen AGW-Agenda eingeläutet ist. Mit Ausnahme der EU sowie Australiens und Neuseelands unternimmt heute kein Land der Welt mehr ernsthafte Maßnahmen zur CO2-Vermeidung zum „Schutz des Klimas“. Die Politik, maßgebend die amerikanische und chinesische, hat ganz andere Sorgen. Außerdem legen die fast täglich gemeldeten neuen Funde von noch vor wenigen Jahren unvorstellbaren Mengen an Schiefergas die Erwägung nahe, mit diese neuen Energiequellen den Jahrzehnte lang erfolgreich von grünen Aktivisten geschürten, aber auch von unglaublichen technischen Schlampereien (Tschernobyl, Fukushima) verursachten Gegenwind zur Kernenergie zu überbrücken, bis inhärent sichere Reaktoren bereit stehen und das Entsorgungsproblem mittels Transmutation gelöst ist hier. Sogar Deutschland beginnt sich zu "bewegen", denn das CCS-Verfahren hat glücklicherweise den Bundesrat nicht passiert. Aber nur als hoffnungslos naiv zu bezeichnende Optimisten träumen angesichts der allfällig deutschen Neigung, wieder einmal die Welt zu retten, von aufkeimender Vernunft. Wir werden, wie stets in unserer historischen Vergangenheit, vermutlich wieder einmal die letzten sein.
Zurück zu den Fachveröffentlichungen von R. Spencer über die Rolle der Wolken! So war offenbar der Druck auf den Chefredakteur der Zeitschrift „Remote Sensing“, die die jüngste Arbeit „R. Spencer, and W.D. Braswell, On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sensing 2011, 3, p. 1603 (2011)“ veröffentlichte, so groß, dass er von seinem Posten zurücktrat hier. Inzwischen ist mit der Arbeit “R.P. Allan, Combining satellite data and models to estimate cloud radiative effect at the surface and in the atmosphere, Meteorol. Appl. 18, p. 324 (2011)“ ein neuer Aufsatz über den Einfluss der Wolken auf Erdtemperaturen hinzugekommen. Wir wollen auf diesen Aufsatz nicht näher eingehen, zumal er die strittige Hauptfrage, den Rückkoppelungseffekt, den die Wolken ausüben, kaum berührt. Die Intention der vorliegenden EIKE-News ist vielmehr, einmal anschaulich und im Detail näher zu erklären, worum es speziell in den Arbeiten von Spencer und seinen Mitautoren geht. Es soll der Grund deutlich werden, warum diese Arbeiten so viel Staub aufwirbeln und vom IPCC gefürchtet werden wie das Weihwasser vom Teufel. Was ist es, das zu solchen, im bisherigen Wissenschaftsbetrieb kaum bekannten Verwerfungen und gegenseitigen Anschuldigungen unter Fachkollegen führt? Diese Aufklärung wird in der beiliegenden kleinen Schrift „Der Wolkeneffekt – wie funktioniert er“? gegeben, der als Fortsetzung der ersten kleinen Studie von Link/Lüdecke „Der Treibhauseffekt – wie funktioniert er?“ hier angesehen werden darf. Er liegt als pdf-File bei.
Prof. Dr. Horst-Joachim Lüdecke
EIKE-Pressesprecher
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
zitat:
„Selbstverständlich ist die Massenzunahme des Protons eine esoterische Spinnerei, weil sie logisch begründbare Tatsache ist!“
Physikalische „Erklärungen“ müssen durch Beobachtung (Messung) und nicht durch Logik begründet werden.
mfG
#65: Dr.Paul
„Wieviel Strahlenkranke oder Strahlentote können Sie bitte vorweisen?“
Anscheinend sind Sie faktenresistent. Aus Allem, was ich bisher zur radioaktiven Strahlung sagte, sollte Jedem aufnahmefähigen Menschen mit gesundem Verstand klar geworden sein, daß die Partikel erst einmal aufgenommen worden sein müssen und dann auch ihre Energie abgegeben haben müssen!
Daher sagte ich auch, wenn Sie „Ihr“ absolut tödliches 1 Mikrogramm SR90 inkorporiert haben, besteht keinerlei akute Gefahr!
Aber nach wenigen Jahren sind Sie dennoch tot.
Daher ist es von Ihrer Seite aus entweder bodenlose XXXXXXXX oder Ignoranz, wenn Sie zum jetzigen Zeitpunkt Tote nachgewiesen haben wollen! Außerdem wissen Sie ganz genau, daß man im Einzelfall praktisch nie die Strahlung als Todesursache feststellen kann. Dies kann nur mit statistischen Mitteln nachgewiesen werden.
Im Gegensatz zu Ihnen kann ich die Gefahr quantifizieren und damit einschätzen. Sie dagegen können nur nachblubbern! Als offensichtlich verantwortungsloser Mediziner profitieren Sie natürlich an der Kernenergie. Ihr Geschäft ist nicht die Gesundheit sondern die Krankheit. Dies sage ich deshalb, weil Sie die tatsächlichen Gefahren der Radioaktivität gröblichst verharmlosen und unter den Tisch kehren wollen!
Wie sich rund 20 bis 40 Gramm Strontiumäquivalent bemerkbar machen, kann man im Irak sehen:
http://www.youtube.com/watch?v=GTRaf23TCUI
#59: Thomas Heinzow
„“Sie schreiben nämlich davon, daß „die Leistung der Umwälzpumpen abnimmt“.“
Muß Sie ja auch, da weniger Wärme abzuführen ist.
Ihr Einwand war wohl nix.“
Ihr Einwand zeugt nur davon, daß Sie 1. keine Ahnung haben und 2. selbst dann, wenn Ihnen ein eindeutiger Fehler nachgewiesen wird, auf Ihrem unverstandenen Blödsinn beharren!
Nach Ihrer Meinung ist daher die Leistung einer Aquarienumwälzpumpe genau Null, nicht wahr, Herr Soziologe?
#63: Götz Woitoll
“ Dafür brauche ich keine Wunderknaben die den Erdkern persönlich kennen seit sie 7 Jahre alt sind.“
Etwas, was es nicht gibt, kann man auch nicht mit 7 Jahren persönlich kennen. Aber Geophysikerologen sagen:
———–
Zitat:
„Wie schnell dreht sich der Erdkern?
Vor vier Jahren überraschten Geophysiker vom Lamont Doherty Earth Observatory in Palisades (New York) Fachkollegen und Öffentlichkeit mit seismischen Messbefunden, wonach der innere Erdkern um ein Grad pro Jahr schneller rotiert als der Mantel. Allerdings zeigte sich später, dass die Ergebnisse auf fehlerhaften Annahmen beruhten. Paul Earle und seine Mitarbeiter an der Universität von Kalifornien in Los Angeles wählten deshalb nun ein genaueres Verfahren. Als Grundlage dienten ihnen die seismischen Wellen von zwei Nukleartests auf Nowaja Semlja in Sibirien aus den Jahren 1971 und 1974. Anders als bei den früheren Messungen untersuchten die Geophysiker die innerhalb des festen Erdkerns gestreuten Wellen und nicht solche, die den Kern komplett durchdringen oder an ihm reflektiert werden. Wie sie feststellten, trafen die Wellen der jüngeren Explosion im Verhältnis früher bei den Messstationen ein als diejenigen des älteren Nukleartests. Die Forscher errechneten daraus, dass der Erdkern tatsächlich der gesamten Erde vorauseilt, aber längst nicht so schnell wie nach den älteren Befunden: Er macht nur eine zusätzliche Umdrehung in 2400 Jahren. (Nature, Bd. 405, S. 411 und 445)“
Zitat:
„Superrotation eine Million Mal langsamer als gedacht
Daher spiegelt diese Ostwanderung höchstwahrscheinlich den relativen Versatz des inneren Kerns gegenüber dem Rest des Planeten wieder – die Geschwindigkeit der „Superrotation“. Die Wissenschaftler haben nun diese Rotationsrate aus der Grenzwanderung neu kalkuliert und kommen auf deutlich geringere Werte als bisher angenommen: Statt einem Grad pro Jahr berechneten sie 0,1° bis 1° pro einer Million Jahre.“
Zitat:
“ Statt einem Grad pro Jahr verschiebt sich der innere Kern nur um ein Grad pro eine Million Jahre.“
http://www.g-o.de/wissen-aktuell-13041-2011-02-24.html
———
Damit ist bewiesen, daß heutige Geophysikerologen in der Lage sind, durch 5000 km unbekannter wahrscheinlich verwirbelter dichter Materie die Umfangsgeschwindigkeit des Erdkerns im Bereich von 2 cm/Jahr bis 0,2 cm/Jahr zu bestimmen!
DAS sind echte Wunderknaben!
Dieselben Wunderknaben bestimmen auch die Erdkerntemperatur. Je nach Kaffeesorte muten sie mal 4000°C oder auch 6700°C. Gleichzeitig können sie die Zusammensetzung des Erdkerns mit 1°/°° Genauigkeit muten. Das hängt dann von der Teesorte ab. Tatsache ist, sie haben keine Ahnung.
#14: Helmut Klinger
Mit dem Photon sprechen Sie ein echtes Problem an. Weder Ihre noch die Aussagen des allwissenden Sie herunterputzenden Admins sind richtig. Sie beide sind Opfer der Wissenschaftsgläubigkeit.
Vorab: Natürlich bin ich ein Klimaskeptiker oder besser: Ich halte die ganze Klimadiskussion für völlig irrelevant, weil dies einfach nur ein groß angelegter Betrug ist. Es geht wie üblich nur ums Abzocken und man versucht eben aus den natürlichen Temperaturschwankungen Geld zu produzieren wie die Spekulanten an der Börse dasselbe aus zappelnden Aktienkursen gewohnt sind. Steigt die Temperatur an, werden Horrorszenarien wie im Gasherd propagiert und fällt sie, wird wieder einmal eine Eiszeit prognostiziert. Aus beidem läßt sich Geld machen. Der Gag dabei ist im Gegensatz zum Aktiengeschäft, daß sowohl beim Rauf als auch beim Runter Geld gemacht wird. Das ist eben das Neue an der Erfindung.
„1) Eine EM ist nachgewiesenermaßen eine sinusförmige Doppelwelle mit wellentypischem An- und Ausschwingen. Dies kann von einem einzelnen Masseteil niemals abgebildet werden. Vergeblich versuchten Generationen von Physikern das zu beweisen. Die Annahme eines Masseteilchens ist also schon deshalb physikalischer Unfug.“
EM Wellen sind eben etwas anderes als ein einzelnes Masseteilchen. Es sind viele Masseteilchen, deren Eigenschaften sinusförmig geordnet sind und sich nach einer Wellenlänge wiederholen. Ein einzelnes Photon ist daher keine EM sondern kann „auch“ Bestandteil eines EM-Wellen Kollektivs sein, wenn das Kollektiv eigenschaftsmäßig geordnet ist.
„2) Die Vorstellung hinter der Emission eines Photons ist: Ein NICHTS, das mit unendlicher Geschwindigkeit auf Lichtgeschwindigkeit beschleunigt wird, dadurch an Masse gewinnt, die zu allem Überfluss auf die Energie jeder einzelnen EM abgestimmt sein und überall im Universum auf allem was schwingen kann massenhaft herumliegen muss. Und das ist ebenfalls grober physikalischer Unfug.“
Da haben Sie durchaus Recht. Aus NICHTS kann keine Masse entstehen, nur deshalb, weil das NICHTS beschleunigt wird.
„3)….Die angebliche Masse der emittierten Photonen (jawohl, ganz sicher Mehrzahl) könnten demzufolge nur einen Bruchteil der ursprünglichen Energie repräsentieren. “
Sie repräsentieren die ganze Energie. Energieübertragung ohne Beteiligung von Masse ist undenkbar. Photonen haben Masse und sie entstehen auch nicht sondern sind immer schon dagewesen. Das ganze Atom besteht ausschließlich aus Photonen! Das ist sozusagen ein Sack voller herumschwirrender Photonenkomponenten.
Was sagt man, was bei der Zerstrahlung von 1 kg Materie bei der Reaktion mit 1 kg Antimaterie herauskommt? „Energie“. Und was ist Energie? Schnell bewegte Photonen. Bei der Zerstrahlung dieser zwei Kilogramm bleiben eben 2 Kilogramm Photonen übrig. An der Gesamtmasse ändert sich nichts.
„Meine zweite Behauptung ist, (nicht nur) aufgrund vorstehender Überlegungen, dass der Wellen/Teilchen-Dualismus rein rechnerisch und nicht real existiert und alle experimentellen Beweise für die angebliche Existenz von Photonen, letztlich auf Fehlinterpretationen zurückzuführen sein müssen.“
Da liegen Sie völlig richtig. Der Dualismus ist ein unverstandener Irrsinn. Genauso wie die EM-Wellen.
Der Haken an der ganzen EM-Photonengeschichte ist der, daß man glaubt, es beim Photon mit einem punktförmigen Teilchen zu tun zu haben.
Alle Probleme lassen sich auflösen und erklären, wenn man das Photon als mindestens Zweiteilchensystem ansieht. Diese beiden nun wahrscheinlich tatsächlich punktförmigen Massen tragen gegensätzliche Ladungen und ziehen sich daher gegenseitig an.
Weiter rotieren sie mit einer Frequenz f umeinander und schwingen eben nicht hin und her. Diese Konstellation hat dann auch einen echten Drehimpuls („Spin“), ein magnetisches Moment, unterliegt der Schwerkraft, erscheint nach außen elektrisch neutral, besitzt eine Polarisation (Rotationsachsenrichtung) und birgt Energie in sich, nämlich die Rotationsenergie.
Die Gesamtenergie ist im Normalfall E = Elinear + Erotatorisch
Erotatorisch ist konstant entsprechend der Rotationsfrequenz und der Massen, sie beträgt h*f/2 = mc²/2
Elinear ist bestimmt durch die Abschußgeschwindigkeit. welche im Allgemeinen die Lichtgeschwindigkeit ist. Elinear ist daher = mc²/2
Die Gesamtenergie ist dann Egesamt = mc²/2 + hf/2 = mc²/2 + mc²/2 = mc² = hf
Die Wirkung von Elinear ist ist von der Relativgeschwindigkeit abhängig, mit der der Wirkungspartner getroffen wird. Elinear ist daher nicht konstant. Bezeichnen wir diese Relativgeschwindigkeit mit w ergibt sich dann als Wirkungsenergie Ew = mw²/2 + mc²/2 bzw. mw²/2 +hf/2
Ein Photon hat Masse und überträgt auch einen Impuls, den wir mit dem Strahlungsdruck auch messen können. Ohne Masse wäre dieser Strahlungsdruck nicht möglich.
Eine Em-Welle kann durch die Sendeantenne aufgrund der el. Felder die herumfliegenden Photonen geeigneter Frequenz anziehen und wieder abstoßen. Dabei können die Photonendichte die Spinausrichtung entsprechend der Wellenlänge geordnet werden.
In einem Beschleuniger beobachtet man ein Massenzuwachs. Ein Proton wird schwerer und seine Energie nimmt stark zu. Obwohl das Proton immer nur „fast“ Lichtgeschwindigkeit erreicht. Ist die Massenzunahme eine esoterische Spinnerei wie die Zauberei des Photons aus dem Nichts?
Selbstverständlich ist die Massenzunahme des Protons eine esoterische Spinnerei, weil sie logisch begründbare Tatsache ist!
Die Wandungen eines Beschleunigerrohres strahlen in alle Richtungen Photonen ab. Einige dieser Photonen bewegen sich mit Lichtgeschwindigkeit auch in Richtung des fliegenden Protons. Die Relativgeschwindigkeit zwischen Proton und Photon ist sehr gering und dann kann das Photon vom Proton in irgendeiner Weise eingefangen werden! Das Proton frißt also während seines Fluges Photonen auf und wird deshalb dicker und schwerer:-)
„Angeblich mathematische Beweise sind auch nicht relevant, denn sie setzen die richtigen (realen) Annahmen voraus, d.h. sie sollen reale Vorgänge mathematisch beschreiben und das tun sie hier in weiten Teilen absolut nicht!“
Da haben Sie absolut Recht.
Bravo, Herr Fischer #5:
“
– Existiert eine mittlere globale Temperatur?
– Ist das chaotische Klima überhaupt berechenbar?
– Sind Modelle, die Computer benutzen, hilfreich?
– Ist ein Modell brauchbar, dass das System Erde auf eine 50m tiefe Wassersäule reduziert und dabei wesentliche Eigenschaften der Erde vernachlässigt?“
Sie können ja richtig gute Fragen stellen!
Wie wäre es denn mit einem „Laborversuch“
bei einer angeblich „physikalisch“ begründeten Theorie,
etwa nach dem Muster des Physikers Wood?
mfG
Hallo Herr Fischer,
Messtechnisch gesehen haben wir eben nur das Ungleichgewicht dF an der Systemgrenze TOA, es sei denn man würde auch den Energiefluss dE in die 50m Wasserschicht messen. Die andere Messgröße ist dTs. Die Bestimmungsgleichung ist dF = lambda * dTs. Experimentell gesehen ist das dann zunächst die Grenze. dF hängt aber nicht nur von der Oberflächentemperatur Ts ab.
Mit freundlichen Grüßen
Günter Heß
Hallo Herr Heß,
vermutlich habe ich mich umständlich ausgedrückt oder wirklich einfach nur ein Brett vorm Kopf, bei einem Bierchen wär’s wohl schneller gegangen 😉
Nee, das mit dem reziproken Wert ist kein Problem, ich blieb bei Spencers Wahl. Meine Frage war, dass bei einem z.B. ozeanischen Energiezufluss dE in das Oberflächenwasser Gleichung (1) ja dE=lambda*dT im neuen Gleichgewicht liefert. Ich hätte erwartet, man hätte schauen müssen, welches TOA-Energieungleichgewicht dF diese Temperaturänderung bewirkt, um mit diesem dF dann das (reziproke) Lambda zu berechnen. dE und dF sind m.E. ja nicht gleich groß, sich müssten sich ja um einen TOA-Energiebetrag unterscheiden, der von den Feedbacks verursacht wird.
Vielleicht liege ich richtig, im Grunde meine ich ja dasselbe wie Spencer: Das Problem in meinem Beispiel ist ja gerade, dass man TOA Forcing plus Feedback gemeinsam misst und man deshalb sehr vorsichtig sein muss, lambda nur mit dem reinen Forcing, und eben nicht mit dem Mischwert, zu bestimmen.
PS:
Bei Science of Doom erschien ein sehr schöner Beitrag zu diesem Thema. Interessant auch Isaac Helds Blogbeiträge Nr. 4 (oder war’s 5?) zu einfachen Modellen.
Lieber Herr Fischer,
TOA steht ja für die echte Systemgrenze.
sie schreiben:
„Ist das Lambda, das man aus dE=lambda*dT erhält nun wirklich dasselbe Lambda, das das IPCC als dF(TOA)=lambda*dT definiert? Sehe ich nur Gespenster?“
So ganz verstehe ich Sie nicht. Das IPCC definiert dT =lambda1 * dF1, während Spencer dF2 = lambda2*dT definiert. Die beiden lambdas sind also reziprok definiert und nicht gleich.
Ihr dE ist für das Modell ein zusätzlicher Energiezufluss ,der muss bei der Bestimmung der lambdas jeweils natürlich berücksichtigt werden
. Sie schreiben:
„Ungewohnt ist auch, dass im Unterschied zur herkömmlichen Fragestellung (Welche Temperaturänderung hat ein TOA-Energieflussungleichgewicht zur Folge?) hier die Ursache-Wirkungsrichtung vertauscht ist.“
Das ist doch so bei gekoppelten nichtlinearen Systemen. Die Ursache – Wirkungsbeziehung ist nicht immer eindeutig zu trennen. Auch das „Feedback“ – „Forcing“ Konzept ist nur ein Modell.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß,
ich verstehe immer noch nicht ganz: In meinem Beispiel war ja dE kein TOA-Energieflussungleichgewicht, sondern ein Zufluss aus dem tiefen Ozean. Im neuen Gleichgewicht hat man TOA zwar dasselbe dE, aber dieses setzt sich nun zusammen aus einem anderen dF plus Feetdback. Ist das Lambda, das man aus dE=lambda*d erhält nun wirklich dasselbe Lambda, das das IPCC als dF(TOA)=lambda*dT definiert? Sehe ich nur Gespenster?
Ja, das Modell ist mathematisch simpel, die Übersetzung fällt mir in diesem Fall aber etwas schwer. Ungewohnt ist auch, dass im Unterschied zur herkömmlichen Fragestellung (Welche Temperaturänderung hat ein TOA-Energieflussungleichgewicht zur Folge?) hier die Ursache-Wirkungsrichtung vertauscht ist.
Zum 2. Punkt:
Die Hauptaussage Spencers ist m.E., dass Satellitenmessungen zur Messung des Feedbacks nur wenig geeignet sind, weil sie immer die Überlagerung aus Forcing und Feedback messen.
Das ist die Kritik, die sich primär an Dessler (2010) richtet, aber wohl auch an Lindzen/Choi.
Hier ist er übrigens kurioserweise im selben Boot mit Trenberth, der seine Kritik aber mehr am kurzen Beobachtungszeitraum einer Dekade, die zudem nicht einmal eine besondere Erwärmung zeigte, festmacht. Ja, ich gebe zu, ich sehe Desslers Paper deutlich kritischer als noch vor einem Jahr 😉
Mit herzlichem Dank
Lieber Herr Fischer,
sie fragen:
„Im Gleichgewichtsfall erhielt man nun aus (1) dE=lambda*dT, was mich verwirrt, weil lambda doch eigentlich ein Energieflussungleichgewicht TOA in eine bodennahe Temperaturänderung dT übersetzt. Was stimmt daran nicht oder habe ich ein Brett vorm Kopf?“
Spencer hat mit lambda einen „net radiative feedback parameter“ mit der Gleichung dE=lambda*dT definiert. Das ist der reziproke „climate sensitivity parameter“ , dT = lambda * dE, des IPCC.
Sie fragen weiter:
„Was ist mit einer Änderung der Wolkenbedeckung? Wenn a priori unklar ist, ob dies ein Forcing oder ein Feedback ist, dann weiß ich nicht, ob ich diese Änderung nun in F in Gl.(1) einsetzen muss oder ob dieser Effekt als Feedback schon im Term lambda*T enthalten ist.“
Ja, Wolken können Strahlungsantrieb und Feedback sein, so dass wir eine intrinsische Unsicherheit bei der Beobachtung eines komplexen nichtlinearen Systems haben. Das ist genau Spencers Punkt. Das „Modell dE = lambda *dT“ wird ja benutzt, um aus Messdaten die „Klimasensitivität“ der Erde zu bestimmen. Wen man also die Änderung des Strahlungsantriebs durch Änderung der Wolkenbedeckung nicht im Strahlungsantrieb berücksichtigt, wird der experimentell bestimmte Wert des „climate sensitivity parameter“ oder des „net radiative feedback parameter“ fehlerbehaftet. Wie schon öfter gesagt, eine genaue Messung der Wolkenbedeckung als Funktion der Zeit ist ausgesprochen wichtig.
Mit freundlichen Grüßen
Günter Heß
An alle AGW-Skeptiker/-Leugner zu denen ich mich auch zähle:
Wenn wir die Herrn Baecker/Fischer und Gesinnungsgenossen nicht hätten, wäre es doch verdammt langweilig. Wir könnten uns lediglich gegenseitig auf die Schultern klopfen. Also sind wir froh, dass wir sie haben. Ich persönlich finde ihre Schlagfertigkeit, ob mit Wahrheiten, Halbwahrheiten oder nicht Nachvollziehbarem garniert, äußerst amüsant.
Immerhin ergibt sich aufgrund derer Kommentare immer wieder die Möglichkeit, auf die, der AGW-These widersprechenden, Fakten hinzuweisen und zu erklären. Für Unbedarfte und Gäste in diesem BLOG eine wichtige Informationsquelle.
Auch ich will mein, der AGW-These zusätzlich widersprechendes, Argument nochmals darlegen und zur Diskussion stellen. Ich werde begründete Behauptungen aufstellen und bitte diese zu diskutieren.
Ich bin grundsätzlich der Auffassung, dass die auf dem Absorptionsband des CO2 begründete AGW-These unfundiert ist, da ich schon allein für das Auftreten des Bandes keine physikalisch unbedenkliche Erklärung erhalten habe. Im Nachstehenden will ich die Begründungen liefern.
Doch zunächst die gängige Begründung für das Auftreten des Absorptionsbandes:
Ein Lichtquant oder Photon trifft auf das Molekül und versetzt dieses aufgrund seiner beschleunigten Masse in Schwingungen und Bewegungen (=Wärme). Hierbei verliert es seine Masse aufgrund der Energieabgabe. Aufgrund der Schwingungen sendet (emittiert, strahlt ab) das Molekül seinerseits EIN Photon aus und kehrt in seine Ausgangslage zurück. Aufgrund wiederum der heftigen Bewegungen (Rotierens) des Moleküls erfolgt die Emission in jede denkbare Richtung. Bezogen auf viele Vorgänge dieser Art, erscheint das Absorptionsband.
Für Nichtwissenschaftler ist vorab zu erklären, was ein Lichtquant oder Photon darstellt und daher ein Wikipedia-Auszug zu dem Begriff Quant:
Quanten („Teile“) können immer nur in bestimmten Portionen dieser („einer“) physikalischen Größe auftreten, sie sind mithin die Quantelung („Aufteilung in Teile“) dieser Größen.
1/1-Teil ist demzufolge auch möglich. Bezogen auf einen Lichtstrahl repräsentiert also die mit Lichtgeschwindigkeit beschleunigte Masse eines Lichtquants bzw. Photons die gesamten Energie eines Lichtstrahls. Dies gilt für alle elektromagnetische Wellen (EM).
Meine erste Behauptung ist, dass das Photon eine unrealistische Rechengröße ist und daher weder den Absorptions- noch den Emissionsvorgang beschreiben kann:
1) Eine EM ist nachgewiesenermaßen eine sinusförmige Doppelwelle mit wellentypischem An- und Ausschwingen. Dies kann von einem einzelnen Masseteil niemals abgebildet werden. Vergeblich versuchten Generationen von Physikern das zu beweisen. Die Annahme eines Masseteilchens ist also schon deshalb physikalischer Unfug.
2) Die Vorstellung hinter der Emission eines Photons ist: Ein NICHTS, das mit unendlicher Geschwindigkeit auf Lichtgeschwindigkeit beschleunigt wird, dadurch an Masse gewinnt, die zu allem Überfluss auf die Energie jeder einzelnen EM abgestimmt sein und überall im Universum auf allem was schwingen kann massenhaft herumliegen muss. Und das ist ebenfalls grober physikalischer Unfug.
3) Selbst wenn dem so wäre, dass der harte Stoss des Photons auf die frei schwingende Masse des CO2-Moleküls zu dessen Eigen-, Rotationsschwingungen und linearen Bewegungen führte, wäre die Annahme der Emission EINES Photons wohl ein schlechter Scherz, da die übergebene Energie in unterschiedliche Bewegungsformen des Moleküls aufgeteilt würde, wobei die letztere gar nichts emittieren könnte. Die angebliche Masse der emittierten Photonen (jawohl, ganz sicher Mehrzahl) könnten demzufolge nur einen Bruchteil der ursprünglichen Energie repräsentieren.
4) Dass Photonen (angebliche Masseteilchen), z.B. des Co2-Absorptionsbandes, nur auf bestimmte Moleküle (reale Masseteilchen) der Atmosphäre energetisch einwirken, ist ebenso physikalisch undenkbar. Beschleunigte Massen beschleunigen beim Zusammentreffen andere Massen unabhängig von deren Gestalt und Größe und geben die Energie zumindest teilweise an diese ab. Auch diese Annahme ist physikalisch nicht haltbar.
Meine zweite Behauptung ist, (nicht nur) aufgrund vorstehender Überlegungen, dass der Wellen/Teilchen-Dualismus rein rechnerisch und nicht real existiert und alle experimentellen Beweise für die angebliche Existenz von Photonen, letztlich auf Fehlinterpretationen zurückzuführen sein müssen. Da aber die Energieübertragung von Wellen auf frei schwingende Massen ganz anders als die von Massen auf ebensolche erfolgt, dürften die diesbezüglichen Berechnungen und vermuteten Auswirkungen irreführend sein.
Dass Vorstehendes nicht nur auf die AGW-These Auswirkungen hat, ist mir durchaus bewusst.
Photon ade = AGW ade: GO BACK TO THE ROOTS!
Viel Spaß beim Kritisieren – aber bitte nicht: Es kann nicht sein, was nicht sein darf.
Angeblich mathematische Beweise sind auch nicht relevant, denn sie setzen die richtigen (realen) Annahmen voraus, d.h. sie sollen reale Vorgänge mathematisch beschreiben und das tun sie hier in weiten Teilen absolut nicht!
MfG
//// #12: Norbert Fischer sagt:
Nun, ich reiche eine Quelle gerne nach. Eine Zusammenfassung der Methoden findet man hier im AR4: http://tinyurl.com/6xn8ty4
Die erste Methode benutzt Messdaten, die zweite eben die Simulationen von GCMs. Ein Zitat zur zweiten Methode:
„The second category of methods examines climate sensitivity in GCMs…““ ////
Bei diesen „Methoden“ gibt es ein großes Problem: es fehlen wissenschaftliche Beweise, dass sie richtig sind. Das Fehlen wissenschaftlichen Beweise ist auch ein allgemeines Problem des AGW-Konzeptes. Das fängt schon an bei der Behauptung, man könne aufgrund der Daten der wenigen Wetterstationen eine „globale Erwärmung“ feststellen. Dabei werden auch „Methoden“ benutzt. Mir stehen die Haare zu Berge, wenn ich über diese „Methoden“ lese.
Mit Zahlenmanipulationen kann man generell jedes gewünschte Ergebnis bekommen, und ich habe den Eindruck, dass das in der Klimawissenschaft schon seit lange Gang und Gebe ist.
Sehr geehrter Herr Lüdecke,
„Als vorgeblich naiver Laie kann man dann unbelegte Behauptungen in die Welt setzen und wirken lassen, wie etwa den Quatsch, man würde „globale Computerklimamodelle zur Messung der Klimasensitivität“ benutzen. Dies soll dann ersichtlich und wohlberechnend zur allgemeinen Verwirrung beitragen.“
Nun, ich reiche eine Quelle gerne nach. Eine Zusammenfassung der Methoden findet man hier im AR4: http://tinyurl.com/6xn8ty4
Die erste Methode benutzt Messdaten, die zweite eben die Simulationen von GCMs. Ein Zitat zur zweiten Methode:
„The second category of methods examines climate sensitivity in GCMs. Climate sensitivity is not a single tuneable parameter in these models, but depends on many processes and feedbacks. Three PDFs of climate sensitivity were obtained by comparing different variables of the simulated present-day climatology and variability against observations in a perturbed physics ensemble (Murphy et al., 2004; Piani et al., 2005; Knutti et al., 2006, Box 10.2, Figure 1c,d; see Section 10.5.4.2). Equilibrium climate sensitivity is found to be most likely around 3.2°C, and very unlikely to be below about 2°C. The upper bound is sensitive to how model parameters are sampled and to the method used to compare with observations.“
Mehr dazu im Bericht der WGI im AR4, Kap. 8-10
Muss ich mich entschuldigen, dass ich kein naiver Laie bin? Ist dies hier hinderlich?
PS:
Die deutschen Medien sind klar „Pro-AGW“, weil sie sich von den Argumenten haben überzeugen lassen. Ihre Argumente von EIKE lassen eine Überzeugungskraft vermissen, daher wird sich daran so schnell nichts ändern. Anstatt sich meiner Person zu widmen wie im letzten Kommentar könnten Sie ja versuchen, hier in der Diskussion durch Sachargumente zu punkten.
Sehr geehrter Herr Urban,
nach ein wenig Recherche fand ich, daß man tatsächlich sowohl kurzlebige Spaltprodukte als auch langlebige Transurane durch Transmutation in kurzlebige oder stabile Isotope verwandeln will. In: http://de.wikipedia.org/wiki/Spaltprodukt findet man:“Nach dem Zerfall des 137Cs ist 99Tc (Halbwertszeit 211.100 Jahre) das am stärksten strahlende Isotop der verbliebenen Spaltprodukte (insgesamt gibt es sieben Spaltprodukte mit sehr langen Halbwertszeiten). Technetium hat kein stabiles Isotop und kommt in der Natur nicht vor.“
99Tc ist neben 129I ein Hauptkandidat für die Transmutation, seine Beseitigung würde die Strahlung in ferner Zukunft (nach dem Zerfall der kürzerlebigen Isotope) um ca. 90 % reduzieren.
http://de.wikipedia.org/wiki/Transmutation enthält die Aussage:
„Unter Transmutation versteht man die Umwandlung von Atomkernen in andere Nuklide beispielsweise durch Kernreaktionen. Mögliche Anwendungen sind:
* Behandlung radioaktiven Abfalls (Nukleare Transmutation)
* Herstellung von Gold und anderen Edelmetallen
Ursprünglich wurde der Begriff von Alchemisten verwendet, unter denen sich jahrhundertelang der Glaube hielt, mit chemischen Mitteln andere Elemente in Gold verwandeln zu können.“
Auch: „Bereits seit den 1940er Jahren wird großtechnisch Plutonium-239 und Uran-233 aus Uran-238 und Thorium-232 gewonnen. Dies war eine der Schlüsseltechniken beim Aufbau der großen Arsenale von Kernwaffen im Kalten Krieg.“
Sehr geehrter Herr Lüdecke,
ad 1)
Sie glauben, man steckt a priori einen lambda-Wert in ein GCM hinein? Das passt aber nicht zusammen mit dem Umstand, dass man GCMs zur Messung der Klimasensitivität benutzt. Das wäre ja ein wirklich unsinniger Zirkelschluss.
ad 2)
Das Argument verstehe ich nicht. Die Sorge geht doch eher in die Richtung, dass bei einer weiteren Erwärmung die Ozeane zukünftig weniger CO2 aufnehmen können und der „airborne fraction“ steigt. Ihr Bild zu den Glazial/Interglazialwechseln zeigt doch gerade, dass Ozeane nach Jahrhunderten zu CO2-Quellen wurden.
(Selbstverständlich ist das Tiefenwasser eine nahezu unbegrenzte Senke. Wegen des langsamen Wasseraustauschs leider sehr langsam wirkend, aber langfristig landen dort unsere anthr. Emissionen, logisch)
ad 3) Schade, wieder nix. Dann halte ich mich doch lieber an die gängigen Erklärungsmuster, wo zwar einiges noch nicht geklärt ist, aber der grobe Ablauf immerhin verständlich ist mit einem Klimasensitivitätswert von ca. 3°.
Hallo Herr Heß, Herr Bäcker
vielleicht lesen Sie ja zufällig mit, es geht um Gleichung (1) und (2). Für einen Topf Wasser ist Gl.(1) trivial, simple Energieerhaltung, angewandt auf das Klimasystem Erde ist die Sache meines Erachtens nicht mehr ganz so einfach.
Klar ist noch alles bei einer Erhöhung der solaren Aktivität, die TOA zu einem Forcing der Stärke dFsol führt. Im Gleichgewichtszustand hätte man dann dFsol(TOA)=lambda*dT, passt alles.
Wie ist es aber in dem Fall, wo warmes Tiefenwasser schlagartig eine konstante Erhöhung des Energieflusses E im Vergleich zum Gleichgewichtswert um dE bewirkt. Die Wassersäule wird wärmer, im neuen Gleichgewichtsfall hat sich die Energieabstrahlung TOA um einen Betrag dF erhöht.
Im Gleichgewichtsfall erhielt man nun aus (1) dE=lambda*dT, was mich verwirrt, weil lambda doch eigentlich ein Energieflussungleichgewicht TOA in eine bodennahe Temperaturänderung dT übersetzt. Was stimmt daran nicht oder habe ich ein Brett vorm Kopf?
Noch eine Frage:
Was ist mit einer Änderung der Wolkenbedeckung? Wenn a priori unklar ist, ob dies ein Forcing oder ein Feedback ist, dann weiß ich nicht, ob ich diese Änderung nun in F in Gl.(1) einsetzen muss oder ob dieser Effekt als Feedback schon im Term lambda*T enthalten ist.
Sehr geehrter Herr Lüdecke,
ich dachte, ihr Beitrag hätte die Intention gehabt, hier eine interessante Diskussion über Spencers Methode zum beiderseitigen Gewinn zu führen. Bedauerlicherweise stelle ich fest, dass nur einseitig bei mir Interesse besteht.
Es geht doch überhaupt nicht darum, ob Sie Spencers Text korrekt wiedergeben, sondern darum, die Inhalte zu diskutieren.
Gestatten Sie mir drei letzte Anmerkungen:
1. Im Text klingt es so, als würden GCMs einen „IPCC-Wert“ von Lambda a priori implementieren. Das ist natürlich falsch, der Lambda-Wert ist das Ergebnis der Modelle.
2. An einer Stelle äußern Sie im Text Zweifel, ob es überhaupt möglich sei, die CO2-Konzentration zu verdoppeln. Nehmen wir mal an, die Verbrennung fossiler Rohstoffe läuft wie gewohnt weiter, so wäre die Verdopplung in 70-80 Jahren erreicht. Schreibt EIKE aber nicht ständig, fossile Brennstoffe reichten noch für Jahrhunderte? Und falls Sie Recht hätten, dann wären ja in ca. 80 Jahren alle fossilen Brennstoffe verbraucht, müsste man dann nicht schnell auf Erneuerbare Energien umsteigen?
3. Bei den Übergängen zwischen Kalt- und Warmzeit äußern Sie Zweifel am gängigen Erklärungsmuster. Wie könnte aber eine Erklärung aussehen für einen Wert der Klimasensitivität von nur 1°C? Das Forcing müsste dann ja um einen Faktor 3 größer sein als bisher angenommen, welches Forcing soll dafür in Frage kommen? Leider konnte mir noch kein Skeptiker auf diese Frage eine alternative Erklärung anbieten.
Zum Kommentar zu #5 von Herrn Lüdecke:
„Mein Aufsatz hatte lediglich den Zweck, in die Materie, die von Spencer/Braswell in ihrem so umstrittenen Paper behandelt wird, so einzuführen, dass sie auch ein naturwissenschaftlich gebildeter Laie versteht, mehr war nicht meine Intention.“
Lieber Herr Prof. Lüdecke,
also zumindest bei mir haben Sie Ihre Intention voll erreicht. Vielen Dank dafür!
Chris Frey
Herr Lüdecke,
ihr herablassender Tonfall, den ich auch schon in ihrer Antwort an Prof. Hoffmann bewundert habe, steht in einem seltsamen Kontrast dazu, dass Sie mein Anliegen nicht verstanden haben.
„Glg.(1) meiner Studie ist keine vereinfachte Gleichung von mir, sondern liegt allen einschlägigen Fachveröffentlichungen zu Grunde.“
Gl. 1 ist simpel und richtig der erste Hauptsatz, angewandt auf eine Wassersäule mit 50m Tiefe. Natürlich stimmt das, aber die Darstellung des Klimasystems Erde durch diese Wassersäule ist doch stark simplifizierend, oder? Natürlich haben auch andere außer Spencer diesen Ansatz benutzt, aber allen ist dieser Umstand klar.
Ein einfaches Beispiel:
Gl. 1 liefert nur einen Wert für die Zeitkonstante, die die Geschwindigkeit des Übergangs zum neuen Gleichgewichtszustand beschreibt. Wo ist die Unterscheidung in fast und slow feedbacks, Gl. 1 liefert immer nur einen Wert (soll ich die Gleichung für tau herleiten?)
Ihr Beitrag ist aber an der Stelle ungenau, wo Sie das F in der Gleichung als gesamten Energiefluss beschreiben.
Stimmen Sie mir aber wenigstens zu, dass lambda definiert ist als DeltaF(TOA!)=lambda*DeltaT?
Ohne Übereinstimmung hier hat es keinen Zweck, dass ich die Diskussion auf die wirklich diskussionswürdigen Punkte führe.
PS:
Herr Limburg hat keine Probleme damit, dass Sie und Spencer mittlere globale Temperaturen verwenden? Man hörte zuletzt einige Zweifel von ihm an der bloßen Existenz derselben.
Schön, dass sich jemand bei EIKE die Mühe macht, die Diskussion um Spencer/Braswell auf eine inhaltliche Ebene zu lenken, das hatte ich bislang vermisst.
Meine Probleme beginnen auf S.2, wo erst einmal etwas Grundsätzliches geklärt werden muss, bevor ich die weiteren Punkte diskutiere:
Gleichung 2 lautet F=lambda*T, was in der Regel in der differentiellen Darstellung DeltaF=lambda*DeltaT benutzt wird.
In der Literatur wird Lambda als Proportionalitätsfaktor definiert, der den Zusammenhang zwischen einem Energieflussungleichgewichts TOP OF ATMOSPHERE und der Änderung der bodennahen Lufttemperatur beschreibt. An dieser Stelle sieht man schon, dass das Kochtopfbeispiel simplifizierend ist, die Übersetzung TOA zu bodennahen Temperaturen ist komplexer.
Damit darf in Gleichung 2 F nun nicht mehr allgemein als Energiefluss definiert werden, sondern muss als Energiefluss TOP OF ATMOSPHERE definiert werden, da sonst der Proportionalitätsfaktor zwar ebenfalls eine Konstante ist, aber eben nicht Lambda.
Nota bene: In Lüdeckes Energiefluss F ist auch Energieaustausch zwischen Oberflächenwasser und Tiefenwasser enthalten.
Wenn in diesem Punkt Einvernehmen besteht, dann können wir die weiteren kritischen Stellen besprechen.
PS:
Ich beneide Herrn Lüdecke, dass er stark vereinfachende Modelle benutzen kann, ohne dass sich ablenkende und sinnlose Diskussionen einstellen z.B. über
– Existiert eine mittlere globale Temperatur
– Ist das chaotische Klima überhaupt berechenbar?
– Sind Modelle, die Computer benutzen, hilfreich?
– Ist ein Modell brauchbar, dass das System Erde auf eine 50m tiefe Wassersäule reduziert und dabei wesentliche Eigenschaften der Erde vernachlässigt?
PS:
Herr Lüdecke, entweder ist dieser EIKE-Beitrag (http://tinyurl.com/6cvolva) falsch oder er stimmt, dann brauchen wir aber erst gar nicht über Spencers Modell reden, dieses wird dann ja auch von EIKE heftig kritisiert. Oder wird Kritik an simplifizierenden Modellen nur dann als Totschlagsargument benutzt, wenn der Autor eines Papers dem „AGW-Lager“ zugerechnet wird?
Damit keine Missverständnisse aufkommen:
Simplifizierende Modelle sind in Ordnung, solange man die Grenzen der Aussagefähigkeit dieser Modelle berücksichtigt.
Herr Ulrich
bei der Transmutation geht es ausschließlich um die Transurane.
Sehr geehrter Herr Urban,
soweit ich weiß, geht es bei der Transmutation nicht um die (natürlich langlebigen) Transurane,
sondern um die kurzlebigen Spaltprodukte.
Herr Lüdecke,
ich möchte mich hier nur zu Ihrer Einleitung äußern, weil sie hier von der Transmutation als einen „Heilmittel“ zur Verkürzung der Endlagerzeiten schreiben. Ich will mich auf 2 Punkte beschränken.
1. Es gibt kein Verfahren und soweit ich dies überblicken kann wird es die nächsten Jahrzehnte kein Verfahren geben, daß eine Abtrennung der Transurane bis in den ppm – Bereich erlaubt. Heute liegt die Abtrennung im Prozent bis Promille -Bereich. Nur wenn die Abtrennung im ppm-Bereich liegt, macht diese überhaupt Sinn.
2. Aber auch wenn es diese Abtrennung gäbe, handeln Sie sich von der Aktivität her etwa so viele langlebige Spaltprodukte ein wie Sie durch die Transmutation an Transuranaktivität vernichten.
Nach Ueberfliegen nur eine sehr vorlaeufige Liste von Fehlern im Text
1) 800 Jahre Zeitversatz zwischen CO2 und Temperatur ist eine Punktmessung und gilt sehr wahrscheinlich nicht fuer die ganze Zeit der Glazialzyklen.
2) Die Klimasensitivitaet unter Paleobedingungen des Glazials hat so oder so NICHTS damit zu tun. Es hat ebenfalls NICHTS mit dem Milankovitch Forcing zu tun.
http://adsabs.harvard.edu/abs/2008GeoRL..3523703G
3)“Ferner misst CERES die Temperaturen T der tiefen Atmosphäre“
CERES misst LW und SW Strahlung (mit einem Bolometer) und keine Temperatur (das wird mit Mikrowellen gemacht). Die Temperaturen sind von HadCRU und nicht von CERES
4)Temperaturvariationen kommen ueber den angegebenen Zeitraum durch ENSO Variabilitaet zustande. Ueber diesen Zeitraum ist es sehr schwer zu unterscheiden was Ursache und was Wirkung von Strahlungsvariationen sind (das gilt natuerlich nicht nur fuer Spencer und Braswell). Die sich verschiebenden Wolkenfelder ueber dem Pazifik zB sind keine Reaktion auf ENSO Temperaturen sondern sind selbst dynamischer Anteil des ENSO EReignisse. Besser ist, man schaut sich die Faelle an, bei denen man genau weiss, was „extern“ und was „interne“ Variabilitaet ist, zB eine Vulkanerruption. Da ist klar, dass die urspruengliche Stoerung von den Vulkanaerosolen kommt und alles darueber hinaus Response ist. Na, ich brauch wohl nicht zu sagen, was dabei herauskommt fuer die Klimasensitivitaet, gell?