Die vom IPCC um Größenordnungen höher vorausgesagten Anstiege der Erdtemperatur basieren auf Annahmen über die „Rückkopplung“ mit dem atmosphärischen Wasserdampf.
Positive Rückkopplung verstärkt Temperaturänderungen (z.B. Temperaturerhöhungen durch CO2; aber natürlich auch durch jede andere Ursache ). Negative Rückkopplung schwächt Temperaturänderungen ab.
Rückkopplungen sind ein typisches Thema für Regeltechnik. In der Physik werden Rückkopplungen betrachtet im Hinblick auf Stabilität oder Instabilität eines Systems.
Es scheint, dass in der Klimadiskussion (nicht nur bei den Verfechtern einer Klimakatastrophe) kein klares Bild über Rückkoppelmechanismen herrscht. Deshalb hier eine Darstellung des Verhaltens bei verschiedenen Rückkopplungsarten. Mit dem Verständnis der Rückkopplungen wird auch klar dass zentrale Angaben der Klimaforschung in sich widersprüchlich sind, also nicht zutreffend sein können .
1) LINEARE positive oder negative Rückkopplung.
Bei positiver Rückkopplung wird jede Temperaturänderung (nicht etwa nur die durch Treibhausgase bewirkte) explosionsartig über alle Grenzen verstärkt. Je nachdem ob die Anfangstemperaturschwankung positiv oder negativ war, steigt die Temperatur an, bis alles Wasser der Ozeane verdampft ist, oder fällt soweit, bis die Erde tiefgefroren ist.
Negative Rückkopplung, dagegen, stabilisiert das System, d.h. alle Temperaturschwankungen werden „weggeregelt“ (Thermostat).
2) NICHTLINEARE positive oder negative Rückkopplung.
Hier nimmt die Stärke der Rückkopplung mit wachsender oder fallender Temperatur ab (grob gesagt verschwindet der Rückkoppeleffekt für größere Temperaturänderungen).
In diesem Falle muss das System nicht explodieren, da bei größeren Änderungen sich die Rückkopplung „selbst ausschaltet“. Nichtlineare Rückkopplung kann zu stabiler Verstärkung (positiv) oder stabiler Abschwächung (negativ) führen. (in der Elektrotechnik ist dies als „Regenerativverstärker“ bekannt)
Schließlich ist die Schnelligkeit der Rückkoppelreaktion wichtig. Beispielsweise ist die Verdampfung aus den Ozeanen oder Wolkenbildung eine “schnelle“ Reaktion auf Temperaturerhöhung. Die Verwitterung von CO2 (also die erhöhte Kalkbildung bei Temperaturanstieg) ist dagegen eine langsame Reaktion.
Solche Reaktionszeiten haben Auswirkungen auf die REGELDYNAMIK. (Mathematisch wird die Stabilität und Instabilität von Systemen durch das so genannte „Nyquist-Diagramm“ beschrieben, welches diese Fälle zusammenfasst.)
Die Modellrechnungen, auf die der UN-IPCC seine Voraussagen gründet, sagen, von Modell zu Modell unterschiedliche, hohe Verstärkungen aus, aber keine „Explosion“. Die Modelle müssen also positive NICHTLINEARE Rückkopplung enthalten.
Während der Rückkoppelmechanismus offiziell erklärt wird, bleibt im Dunklen wie die Nichtlinearität zustande kommen soll
Die endlichen Verstärkungen erlauben einen Test: Nach Angabe der offiziellen Klimaforschung gelten folgende Zahlen: der „natürliche Treibhauseffekt“: 33 °C. 29% davon entfallen auf CO2 (der wesentliche Rest auf Wasserdampf ). Erhöhung der Erdtemperatur seit Beginn industrieller CO2 Emission 0,7 °C. Zunahme der CO2-Konzentration in diesem Zeitraum 35%. 29% von 33°C sind 9,6 °C. Mit Erhöhung der CO2-Konzentration um 35% hat sich aber die Temperatur nicht um (35% von 9,6 °C =) 3,3 °C erhöht, sondern nur um 0,7 °C.
Führte man diese 0,7 °C auf den Einfluss von CO2 zurück wie vom IPCC behauptet, dann würde dies Nichtlinearität des Einflusses von CO2 zeigen. Die Reaktion ist (0,7/3,3 =) 0,21. Also fast 5 mal kleiner als (offiziell) bei der CO2-Konzentration zu Beginn der Industrialisierung.. Damit kann man weiter rechnen: Erhöhen wir die CO2 Konzentration um weitere 35% wird die Reaktion abermals auf 1/5 verringert sein, usw. Es folgt, dass für sehr große CO2 Konzentrationen die Erdtemperatur einem Grenzwert von +0,9 °C zustrebt.
0,7 °C davon haben wir schon hinter uns. Maximal wäre, glaubt man den Angaben der offiziellen Klimaforschung , also nur noch 0,2 °C Temperaturerhöhung möglich.
Wie vertragen sich also die offiziellen Angaben mit den dramatischen vorausgesagten Temperaturerhöhungen von bis zu 6 °C bis 2100?
Antwort: verträgt sich nicht. Irgendwas stimmt nicht in den „offiziellen“ Rechnungen.
Zweiter Test: Der schwächer werdende Einfluss von CO2 bei zunehmender CO2-Konzentration müsste sich in einem zeitlichen Abflachen des Erdtemperaturanstieges mit der Zeit widerspiegeln. Tatsächlich nimmt aber die Steigung der Temperaturen nach den offiziellen Angaben seit dem Beginn der Industrialisierung ZU. Und dies ist ebenso der Fall für die offiziellen Temperaturvoraussagen des UN-IPCCes bis zum Jahr 2100.
Wie vertragen sich also die angeblichen Modelle mit den angeblichen Ergebnissen?
Antwort: verträgt sich ebenfalls nicht. Wiederum ein Zeichen dass in den Rechnungen irgendwas nicht stimmt..
Offiziell wird das Rückkopplungsmodell von CO2 mit dem Wasserdampf folgendermaßen beschrieben:
Eine minimale Temperaturerhöhung durch CO2 führt zur Verdampfung von Wasser aus den Ozeanen, welches wiederum, wie oben beschrieben, zur Temperaturerhöhung führt, welches wiederum zu erhöhter Verdampfung von Wasser führt… usw. ad infinitum; also positive, lineare Rückkopplung. Dies steht im Widerspruch zur niemals eingetretenen „Explosion“, UND steht auch im Widerspruch zur Aussage, wir könnten durch Verringerung der CO2-Emissionen den Temperaturanstieg (auf +2 °C) begrenzen. Dies System reagiert ja explosiv auf JEDE kleinste Temperaturschwankung.
Man muss auch immer wieder darauf hinweisen, dass nach diesem offiziellen Modell JEDE Temperaturerhöhung (nicht etwa nur die Temperaturerhöhung durch CO2, sondern viel eher die durch Schwankungen der Wasserdampfkonzentration bewirkte) verstärkt würde.
CO2 spielte also als nur einer von vielen möglichen „Auslösern“ eine unwichtige Nebenrolle. Das „gefährliche Treibhausgas“ dagegen ist nach diesem offiziellen Modell des UN-IPCCes der Wasserdampf. Dass Maßnahmen geplant sind, den Wasserdampfgehalt der Atmosphäre zu reduzieren oder handelbare „Wasserdampfzertifikate“ auszugeben, ist allerdings bisher nicht bekannt geworden.
Endlich darf man auch nicht vergessen, dass nach diesem Modell auch die Abkühlungen explosionsartig verstärkt werden. Auch dies findet man nicht in den Voraussagen des IPCC.
Man sieht, hier passen die zentralen Aussagen nicht zusammen. Ein klares Zeichen, dass in den Rechnungen weitere Annahmen gemacht sind, über die man nicht spricht.
Wie lösen sich nun alle diese Widersprüche?
1) Es gibt theoretische Argumente dafür, dass NEGATIVE LINEARE RÜCKKOPPLUNG aus einem Grundprinzip der Physik (Prinzip der „maximalen Entropie-Erzeugung“, Clausius 1860) folgt /1/.
Damit wäre das Klima stabil gegen INTERNE Störungen wie Klimagas-Emission. Der Wasserdampf wirkt wie ein Thermostat.
ÄUSSERE Störungen, wie Änderung der Keimbildung für Wolken werden NICHT weggeregelt. Diese bewirken die historisch beobachteten Klimavariationen.
2) Das theoretische Ergebnis 1) ist mit zwei unabhängigen Methoden durch Messung von Wasserdampf /1/ bzw. durch Strahlungsmessungen mittels Satelliten /2/ bestätigt worden.
Entsprechende Überprüfung der Rechnungen und der in ihnen gemachten Annahmen, auf denen die Voraussagen des IPCC basieren, anhand von Messungen, gibt es nicht.
Kurz, die einzigen Arbeiten, die auf der Realität von Messungen basieren, falsifizieren die Voraussagen des IPCC.
Wenn sich zeigt, dass prophezeite Katastrophen nicht eintreten können, reagiert der Katastrophenprophet gewöhnlich mit „Nachlegen“: Es wird mit noch schlimmeren Katastrophen gedroht, um von der logischen Unhaltbarkeit der Prophezeiungen abzulenken.
So auch hier:
Während sich die Prophezeiungen des UN-IPCCes zunehmend als unhaltbar herausstellten, wurde der „runaway“, das Ende des Lebens auf der Erde durch Hitzetod, entsprechend linearer positiver Rückkopplung, wieder hervorgekramt /3/.
Die Rechnungen in /3/, die zeigen sollen, wie der in Jahrmillionen nie eingetretene Fall jetzt plötzlich doch eintreten soll, lassen sich nur mit „Kraut und Rüben“ charakterisieren: Variable werden als konstant angesetzt, Konstanten als Variablen. Zu guter Letzt wird die „Verbrennungsgeschwindigkeit“ mit der Gesamtenergie durcheinander geworfen.
Zugegebenermaßen ist dieser Autor auch sonst schon so berüchtigt, dass sich sogar unsere eigenen Katastrophenpropheten von ihm in der Vergangenheit distanziert haben. Trotzdem übt er einen enormen politischen Einfluss aus.
UND immerhin bekommt man auf Anfrage beim Umweltbundesamt nach der Physik des Klima-„runaway“ diesen Vortrag /3/ als Information…
Als vernünftiger Wissenschaftler wird man also davon ausgehen, dass die Erde mit dem Wasserdampf einen Thermostaten besitzt, der die Erdtemperatur gegen Störungen konstant hält. Dafür spricht ein physikalisches Grundprinzip und entsprechende Ergebnisse von Messungen. Weiterhin lässt sich damit die erstaunliche Klimakonstanz der Erde über Jahrmillionen verstehen. Und NUR mit diesem Ergebnis lassen sich die Widersprüche in den Angaben der offiziellen Klimaforschung lösen.
Schließlich kann eingewendet werden, die Stabilisierung durch Rückkopplung habe doch Grenzen, jenseits derer doch Katastrophen auftreten können (in der Regeltechnik nennt man dies den „Haltebereich“). Tatsächlich kann das Wasser nicht den Einfluss beliebig großer Mengen an CO2 „wegregeln“. Dieser Thermostat funktioniert nur so weit wie Wasser alles dominiert; der Einfluss z.B. von CO2 klein ist gegen den von Wasserdampf.. Wasserdampf liegt in der Atmosphäre im Prozentbereich vor. Unter Einbeziehung der spektroskopischen Eigenschaften kann man daher vermuten, dass der Regelmechanismus z.B. ab einer CO2-Konzentration von vielleicht 10% nicht mehr greifen würde. Das wären dann tatsächlich die vielgenannten „Kipp-Punkte“ und Katastrophen. Die wären tatsächlich denkbar … wenn, ja wenn… die CO2- Konzentration in der Atmosphäre ca. 300 mal höher wäre als sie heute ist.
Nun ist die Vorstellung unbestritten, dass die Verbrennung aller Kohlenstoff-Vorräte der Erde die CO2-Konzentration kaum verdoppeln könnte. Wir sind also im derzeitigen Erdalter beruhigend weit weg von solchen Kipp-Punkten. Wir dürfen unter allen anderen Segnungen von CO2 auch die Förderung des Pflanzenwuchses, damit dessen enormen Beitrag zur Welternährung, genießen.
CO2 wird erst dann gefährlich, wenn man es, wie geplant, unter enormen Konzentrationen, und Drücken von 250 atm, unterirdisch endlagern will. Dann allerdings besteht für ganze Bevölkerungen die Gefahr durch Erstickungstod, vor dem Flucht dann nicht möglich ist.
Prof. Dr. C.O. Weiss Dipl. Physiker für EIKE
/!/ http://jennifermarohasy.com/blog/2009/05/the-climatically-saturated-greenhouse-effect/
/2/ http://wattsupwiththat.com/2010/06/27/spencer-on-pinatubo-and-climate-sensitivity/
Mit dem „radiativen Forcing“ eine Rückkopplung zu berechnen ist ein Witz. Das „radiative Forcing“ wird als Zunahme der Strahlung aus der Stratosphäre bei unveränderter Troposphäre berechnet. Tatsächlich kommt aber weniger Strahlung aus der Stratosphäre bei erhöhter CO2-Konzentration: Die Gesamtmenge der Treibhausgase in der Stratosphäre bleibt etwa konstant (die Stratosphäre wird dünner), aber die Temperatur der Stratosphäre nimmt ab. Die größere Dicke der Troposphäre führt zu einem größeren Temperaturunterschied zwischen oben und unten – ohne Wasserdampf wäre der Temperaturunterschied noch größer, da statt des feuchtadiabatischen Temperaturgradient ein trockenadiabatischer Temperaturgradient wäre.
MfG
#24: Statiker
„Da Klimamodelle FEM-Modelle sind “
Sind sie aber nicht.
Zwar werden dort auch partielle Differentialgleichungen auf einem Gitter gelöst.
Das Gitter ist jedoch fest. Man löst entweder im Raum oder macht erst eine räumliche Fouriertrafo.
Mischformen kommen auch vor. Im Gegensatz zu FEM bekommt man die Lösung jedoch nicht durch
Extremalprinzipen, sondern durch numerische Integration.
Da Klimamodelle FEM-Modelle sind ist über diesen Weg eine Überprüfung möglich.
Zur experimentellen Überprüfung von FEM-Modellen verfügen die entsprechenden Ingenieurwissenschaften über ein umfangreiches Erfahrungspotential.
Dabei werden die einzelnen Einflussgrößen nacheinander isoliert. Dies geschieht durch Konstanz in den umliegenden Elementen. Somit bleibt für das betrachtete Element lediglich eine Einflussgröße übrig. Dazu sind meist kleinere Raster völlig ausreichend, was kleine Gleichungssysteme hervorbringt und somit keine hohe Rechenleistung erfordert. Das rechnerisch ermittelte Ergebnis der isolierten Einflussgröße wird mit gemessenen Werten verglichen. Bei den Experimenten wird die Dimensionslosigkeit der FEM ausgenutzt.
Somit kann untersucht werden, ob die in den Elementen getroffenen Vereinfachungen zulässig sind.
Weiterhin sind Aussagen über die Genauigkeit der FEM-Modelle möglich.
Jörg S.
@ Bäcker
Sie gehen ja in ihren Forcings auf wie ein Hefekuchen. Ist Ihnen mal der Gedanke gekommen das Sie über die reale Welt reden und die ganz anders aussieht?
Gehen wir doch einmal davon aus, dass die theoretischen CO2 Modelle eine Erhöhung der Temperatur von 0,7 bis 1,1 °K bei einer Verdoppelung des CO2 Gehaltes in der Atmosphäre errechnen. Diese Modelle sollten an ihren Hot Spots zu belegen sein. Die gemessenen Hot Spots kann man mit
Lieber Herr Baecker,
ich denke zu den Forcings und ihrer Zerlegung sind wir uns weitgehend einig, auch zu dem Lean und Rind Paper.
Wir brauchen vermutlich nicht über die einzelnen Worte zu diskutieren, ich habe sie verstanden.
Gerade weil mir klar ist, dass es nur der Stand des Wissens ist, formuliere ich meine Kritik, da ich der Meinung bin, dass das nicht ausreichend rübergebracht wird.
Ich selbst vermisse eben in der Klimawissenschaft eine gewisse naturwissenschaftliche Strenge und werde diese immer wieder einfordern.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß, #20
Das Rind&Lean paper würde ich nun nicht als besonders überzeugend einstufen, Rahmstorf mag das anders sehen. Für mich steckt in dem paper nicht mehr Wissenschaft oder Grips als in jedem anderen paper, das sich mit einfachen Fits beschäftigt.
Mit der Verteilung von Prozentsätzen oder Temperaturdifferenzen auf verschiedene Ursachen habe ich generell ein Problem. Die Rechtfertigung basiert ja anscheinend darauf, dass etwas fehlen würde, wenn eine Ursache wegfiele. Aber diesen Fall kann man empirisch ja nun nicht prüfen, denn es gibt nur einen realisierten Klimaverlauf. Daher sind solche Untersuchungen nur inklusive Modellbeschreibungen möglich, d.h. man simuliert das Klima mit und ohne Treibhausgasanstieg und vergleicht zwei virtuelle Klimate. Daraus leitet man Sensitivitäten ab, und Lean&Rind wenden diese Ergebnisse auf die Realdaten wieder an.
Wenn Rahmstorf nun schreibt:
„„Lean&Rind 2008 kommen für den Zeitraum 1905-2005 auf eine anthropogene Erwärmung von 0.059 ± 0.001 K, von einer insgesamt beobachteten Erwärmung um 0.074 ± 0.018 K.
Der vom Menschen verursachte Anteil ist demnach in diesem Zeitraum 80%.“
So frage ich mich, ob dieser Prozentsatz überhaupt DAS Maß für eine Ursachenbewertung ist. Was wäre denn, wenn ich statt den linearen Trend der Temperaturreihe die Varianz der Temperaturreihe auf Ursachen runterbreche? Wäre der Varianzanteil des anthropogenen Anteils dann auch 80%, kann ich mir nicht vorstellen. Wenn man den linearen Trend betrachtet, so filtert man die hochfrequenten Schwankungsanteile ja schon raus. Für mich wäre das „korrektere“ Maß für die Ursachen, den entsprechenden Anteil im Powerspektrum der Temperatureihe zu bewerten. Ein nicht geringer Anteil des Spektrum ist der (noch) nicht kausal auflösbaren Variabilität zuzuschreiben, den niederfrequenten Anteile der Klimafaktoren wie Sonne, Treibhausgase etc. (im Prinzip die Liste der radiative forcings) kann man dann Anteile des Restes zuordnen, wenn man die Zusammenhänge quantitativ kennt. Bei der Sonne gibt es natürlich auch die mittlerweile traditionelle Diskussion, wie weit diese auch kurzfristige Temperaturschwankungen bewirkt, die bislang dem unerklärten Variabilitätsanteil zugeschrieben wird (Klimarauschen).
Ob das forcing Konzept nun im Lean&Rind paper überzogen wurde, kann ich nicht beurteilen. Ich gebe auf diese quantitativen Angaben des anthropogenen Anteils am linearen Temperaturtrend wenig. Zumal ein anderes Klimamaße als die Temperatur wieder andere Prozente ergeben könnte.
„Das ist zu pauschal. Das muss im Einzelfall gezeigt werden und vom Autor argumentativ dargelegt und verteidigt werden.“
Ja klar, das habe ich auch nicht in Abrede gestellt.
„Für die Zuordnung der Ursache CO2 für die Temperaturerhöhung im 20. Jahrhundert gibt es ja eigentlich nur Aussagen der folgenden Qualität:
…, liegt es aufgrund von Modellsimulationen nahe zu vermuten, dass CO2 einen wesentlichen Beitrag zur Temperaturerhöhung des 20. Jahrhunderts bewirkt hat.“
Richtig. Weil es es nunmal keinen realisierten Klimaverlauf ohne CO2-Anstieg gibt. Daher gibt es nur die Möglichkeit, Modelle zu entwickeln, oder in der geologischen Vergangenheit noch Analogien zu suchen. Beides ist indirekt, nicht experimentell und unsicherer. Läßt sich aber auch nicht ändern.
„Unter der Annahme, dass die Wolkenbedeckung, sowie die Albedo im 20. Jahrhundert konstant waren, …“
Ich habe eine Einschränkung der Aussage durch diese Annahmen so noch nie gesehen.
Es ist doch eher so, dass man die Änderungen der Albedo und der Wolkenbedeckung mit modellieren muss und bei der Modellverifikation testen muss, wie gut dies mit verfügbaren Daten zusammenpasst. Bei der Wolkenbedeckung und den Albedoänderungen (da sind vor allem die durch Schnee/Eis und die anthropogen bedingten durch Landnutzungsänderungen relevant) mangelt es an akkuraten Zeitreihen für die Vergangenheit. Sie haben daher Recht, dass man anhand der bislang bekannten physikalischen Ursachen für diese Parameter abschätzen muss, wieweit sich diese ändern konnten in den Zeiträumen, in denen Daten fehlen. Das ist tatsächlich eine Annahme, über deren Rechtfertigung man diskutieren muss. In dem Ensemble Projekt für den AR5 werden z.B. die Auswirkungen von Landnutzungsänderungen aufs Klima mehr expliziter als bisher berücksichtigt.
„Kaum ein Beweis. Oder wie sieht ihre Aussage dazu aus?“
Was heißt Beweis? Der Stand des Wissens sieht momentan so aus. Das ist eben das beste, was man bislang hat. Und daraus muss man unter Berücksichtigung der bekannten Fehler und unbekannter Effekten eine Aussage und eine Empfehlung ableiten. Vor unbekannten Effekten kann sich aber die Wissenschaft generell „nicht schützen“, im Gegenteil, das speist den wissenschaftlichen Fortschritt.
Lieber Herr Bäcker,
wenn sie das so relativieren, stimmen wir meistens überein.
Aber Lean et al. benutzen nun mal das Forcing, um mit linearer Regression den Temperaturanstieg von 1979 bis 2005 aufgrund der anthropogenen Forcings zu 0.199K +/- 0.005 zu bestimmen. In einem Blog hat mir jemand in einer Antwort auf meine quantitative Frage geschrieben, dass das zeigt dass die Erwärmung in diesem Zeitraum zu 100% auf anthropogene Forcings zurückzuführen ist.
Ich finde da wird das Forcingkonzept überfrachtet, vor allem wenn es als Tatsache formuliert wird. Was meinen Sie?
http://tinyurl.com/3556fv5
„Lean&Rind 2008 kommen für den Zeitraum 1905-2005 auf eine anthropogene Erwärmung von 0.059 ± 0.001 K, von einer insgesamt beobachteten Erwärmung um 0.074 ± 0.018 K. (wobei Kelvin bei Temperaturdifferenzen natürlich gleich Grad Celsius ist, wieso legen Sie Wert auf Kelvin??)
Der vom Menschen verursachte Anteil ist demnach in diesem Zeitraum 80%. (Über die letzten 25 Jahre liegt er übrigens über 100%, da die natürlichen Einflussfaktoren abkühlend wirkten, u.a. durch die Abnahme der Leuchtkraft der Sonne.“
Sie schreiben:
„Aber andererseits kann man auch ohne direkte Experimente wissenschaftliche Beweise ziehen und mit Fehlergrenzen festmachen.“
Das ist zu pauschal. Das muss im Einzelfall gezeigt werden und vom Autor argumentativ dargelegt und verteidigt werden. Für die Zuordnung der Ursache CO2 für die Temperaturerhöhung im 20. Jahrhundert gibt es ja eigentlich nur Aussagen der folgenden Qualität:
Unter der Annahme, dass die Wolkenbedeckung, sowie die Albedo im 20. Jahrhundert konstant waren, liegt es aufgrund von Modellsimulationen nahe zu vermuten, dass CO2 einen wesentlichen Beitrag zur Temperaturerhöhung des 20. Jahrhunderts bewirkt hat.
Kaum ein Beweis. Oder wie sieht ihre Aussage dazu aus?
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß,
wieweit ist denn in Ihren Augen das Konzept des radiative forcings ein Instrument, um Szenarien abzuschätzen?
In der Literatur wird diese Konzept nicht in allen Studien benutzt. Wen man ein Klimamodell heranzieht, so braucht man solch ein Konzept nicht. Man läßt einfach das Modell mit der Änderungen nochmal laufen und vergleicht.
Nun könne Sie einwenden, dass die Modelle die Natur noch nicht genügend gut beschreiben, und auch für die Verifikation anhand des gegenwärtigen oder vergangenen Klimas zu wenig Daten vorliegen, um 1:1 Kausalitäten abzuleiten. Wenn man sich schon damit zufrieden gäbe, wenn man den Temperaturverlauf reproduziert bekäme, würde ich Ihnen Recht geben. Aber so bequem macht man sich dies nicht.
Selbst wenn also ein Modell das Klima der letten 100 Jahre richtig wiedergäbe und auch Zusammenhänge getestet worden wären, so wäre dann die Frage ob dies nur bei den Randbedingungen der 100 Jahre so passt, aber bei Änderungen dieser Modell und Realität auseinanderliefen. Auch dies ist nicht einfach zu beantworten. Aber auch dafür muss man wohl oder übel in die Details der Klimaforschung einsteigen.
„Sie haben natürlich Recht, dass es schwierig ist ein Experiment zu machen. Allerdings darf diese Schwierigkeit keine Ausrede sein und nicht dazu führen, dass man aus den Modellen jeden Unfug heraus interpretiert und das ist im Grunde meine Kritik.“
Meine Kritik ist weniger der Mangel dessen, was es nicht gibt, als vielmehr, dass die problemspezifischen Methodik nicht klar genug gemacht wird. Wenn jemand es gewohnt ist, seine Fragenstellungen im Labor lösen zu können, so läßt er sich vielleicht weniger von „indirekten Methoden“ überzeugen. Aber andererseits kann man auch ohne direkte Experimente wissenschaftliche Beweise ziehen und mit Fehlergrenzen festmachen.
Und da das Experiment auch nie theoriefrei ist und die Methodik der Klimaforschung nun nicht so selten ist, finde ich, dass man hier mal mit der Kirche im Dorf bleiben muss.
Wie schreibt Herr Heß so schön:
“Wir brauchen schon unabhängige Experimente.“
Die theoretischen CO2 Modelle gehen von einer Erhöhung der Temperatur von 0,7 bis 1,1 °K bei einer Verdoppelung des CO2 Gehaltes in der Atmosphäre aus. Diese Modelle sagen auch deutliche Hot Spots voraus. Die gemessenen Hot Spots kann man mit
Lieber Herr Bäcker,
ich denke wir stimmen weitgehend überein.
Ja aus dem momentanen Forcing kann man sicher nicht auf die Temperaturentwicklung schließen.
Man muss immer das Zeitintegral betrachten und das wäre ja sowas wie der „ocean heat content change“
Deshalb beschränke ich ja meine Wolken/Albedo-Hypothese zunächst auf den Zeitraum 1983 – 2008, da wir nur da Messdaten zum „cloud radiative forcing“ und der Albedo der Erde haben.
Ich denke vor allem, dass eben der Vergleich zwischen Treibhausgas „radiative forcing“ und einem instantanen Forcing hinkt und vom IPCC misshandelt wird. Vor allem, wenn man die Wolkenbedeckung nicht kennt. Wenn nämlich das solare Forcing die ganze Zeit seit 1750 nur auch immer 0.02 W/m2 betragen hätte, wäre es vergleichbar mit einem „radiative forcing“ von 5 W/m2
Sie haben natürlich Recht, dass es schwierig ist ein Experiment zu machen. Allerdings darf diese Schwierigkeit keine Ausrede sein und nicht dazu führen, dass man aus den Modellen jeden Unfug heraus interpretiert und das ist im Grunde meine Kritik.
Im Prinzip hat man ein komplexes nichtlineares System und bekommt aus den Modellen eine Systemantwort. Nun zerlegt man unter der Annahme, dass eine lineare Differentialgleichung ausreicht diese Systemantwort in Faktoren, „radiative forcings“. Die Gleichung ist meines Erachtens aber überbestimmt.
Sie schreiben:
„Richtig. Das sehe ich auch so. Daher darf man die Anwendbarkeit dieser Größe auch nicht überziehen.“
Auch das beschreibt meine Kritik. Lean und Rind benutzen das Netto-Forcing mit 3 anderen Faktoren, um eine einzige Kurve den Temperaturverlauf zu fitten und quantiativ den Beitrag der Treibhausgase auszurechnen. Auch dieses System ist überbestimmt. Das nenne naturwissenschaftlich gesehen überzogen.
In #12 habe ich geschrieben, wie man sich dem gesamten Forcing vielleicht empirisch nähern könnte.
Mit freundlichen Grüßen
Günter Heß
Dritter und letzter Versuch.
Kontrolle ob Text vollständig im Browser OK
Spam Schutz gottes
Wie schreibt Herr Heß so schön:
“Wir brauchen schon unabhängige Experimente.“
Die theoretischen CO2 Modelle gehen von einer Erhöhung der Temperatur von 0,7 bis 1,1 °K bei einer Verdoppelung des CO2 Gehaltes in der Atmosphäre aus. Diese Modelle sagen auch deutliche Hot Spots voraus. Die gemessenen Hot Spots kann man mit
Lieber Herr Heß, #13
ich verstehe es so, dass sich das forcing darauf bezieht, wie die externe Einzeleffekte (extern im Sinne ursächlich außerhalb des Klimasystems und u.U. regelbar) gegenüber dem klimatischen Zustand von 1750 isoliert wirken. Wobei der externe Einzeleffekt noch interne feedbacks im Klimasystem auslösen kann, und die ebenfalls berücksichtigt werden. Die Voraussetzung ist, dass das Klima um 1750 im Gleichgewichtszustand war, dies ist natürlich nur eine in Grenzen gültige Annahme, deren Zutreffen man prüfen muss.
Ein von Null verschiedenes forcing treibt dann das Klimasystem zu einer Änderung an. Aber man muss dabei berücksichtigen, dass unabhängig von externen Einflüssen auch interne Fluktuationen das Klimasystem antreiben und auch die internen Faktoren zu einem ständig von Null verschiedenen forcing führen. Daher kann das Nullsetzen um 1750 nur so genau sein, wie das Schwankungsintervall der Fluktuationen. Da man den Zustand des internen Klimarauschens 1750 nicht kennt, denn Modelle können bekanntlich die hochfrequenten Anteile des Klimarauschens mit typ. Zeitskalen von unter 10 Jahren nicht besonders genau wiedergeben.
Die „Suche nach der Klimasensitivität“ sieht aber etwas anders aus. Denn zwischen forcing und Klimasensitivität besteht kein unmittelbarer Zusammenhang.
Denn je nach Randbedingungen und Zeitskala kann es unterschiedliche Temperaturänderungen auf ein forcing geben. I.a. sind Temperatur und forcing Zeitreihen, die zueinander in Korrelation gesetzt werden sollen. Ein häufig betrachteter Spezialfall ist, dass man ein forcing stufenartig einschaltet und dann die entsprechende Reaktion der Temperatur darauf betrachtet. Diese nimmt nach einem Übergangszeitraum einen konstanten Wert (+/- Rauschen durch internes forcing) an. Üblicherweise definiert man dann Klimasensitivität als Temperaturhub zwischen den Gleichgewichtszuständen vor und nach dem Einsetzen des forcings geteilt durch die Höhe des forchings. Dann kann man untersuchen, wie linear diese Beziehung bzw. wie konstant dieser so definierte Klimasensitivitätsparameter ist. Nun kann man aber das forcing auch statt stufenförmig anders einschalten. Bei gleichem Endwert kann dann die Gleichgewichtstemperatur anders sein. Diese Unterschiede sind wohl unbedeutend gegenüber anderen Unsicherheiten, müssen aber untersucht werden. Und dann ist auch klar, dass man bei anderen Randbedingungen wie z.B. der Land-Meer-Verteilung bei sonst gleichen „Einschalt- und Abtastbedingungen“ andere Klimasensitivitätsparameter bekommen kann.
„Das „radiative forcing“ in der Definition des IPCC ist deshalb nur eine Klassifizierung, die die relative Auswirkung unterschiedlicher Einflussgrößen auf die Temperaturänderung des Systems beschreibt, falls alles andere gleich bleibt, was immer das in einem nichtlinearen system heißt.
Das „radiative forcing“ in der Definition des IPCC ist deshalb zunächst nur eine Größe die die Ergebnisse bzw. Systemantworten von Modellrechnungen darstellt und vergleicht. “
Richtig. Das sehe ich auch so. Daher darf man die Anwendbarkeit dieser Größe auch nicht überziehen. Man muss vorher anderweitig überprüfen, wie
weit die Linearität noch akzeptabel erfüllt ist. Aber dies ist eine fromme Position, die wir leider nicht in dieser Forderung erfüllen können, denn die Atmosphäre unter gegenwärtigen klimatischen Randbedingungen können wir selbst bei voller Kenntnis, wie der Gleichgewichtszustand aussieht, nicht untersuchen, wie sie sich ändert, wenn man 760 statt 380 ppm CO2 hätte. Das einzig nicht-reduktionistische Experiment wäre, wenn man ein Szenario zur Realität macht, aber dessen Ausgang will man aber ja gerade vorher möglichst gut wissen! Das Experiment als ultima ratio kann man immer fordern. Aber es gibt nunmal wissenschaftliche Fragestellungen, die dieses ultimative Experiment in der Realität nicht zulassen! Die erste Atombombe bestand bis zum Einsatz nur aus reiner Theorie! Es gab kein Experiment, dort wurde erst mit der Anwendung die Theorie überprüft. Wobei ja auch da zu fragen ist, ob die Funktionsprüfung durch Explosion als Verifikationsplan zur Theorieprüfung ausreicht…
„Mit einem gemessenen physikalischen Effekt, oder dem instantanen Strahlungsantrieb als Bilanzunterschied an der Atmosphärenobergrenze hat das zunächst nichts zu tun. “
Natürlich nicht. Aber einen experimentellen Weg zur Klimasensitivität gibt es nicht.
Nochmal zur IPCC Darstellung der radiative forcings. Häufig gibt es das Argument, dass das solare forcing zu gering sei. Wenn nun aber die Sonneneinstrahlung 2000 und 1750 in etwa gleich war, so ist die Differenz klein. Dies widerspricht nicht, dass dieses forcing in der Zwischenzeit bedeutend hätte sein können und einen gewichtigen Anteil beim Temperaturverlauf hatte, aber zum „Stichtag 2000“ „zufällig“ kein forcing lieferte. Sehen Sie das auch so?
Wenn das so ist, heißt dies aber auch, dass man auf dem momentanen forcing -selbst wenn man dies alleine betrachten könnte-, nicht eindeutig auf die zukünftige Temperaturentwicklung schließen kann. Stimmen Sie mir da zu?
#11 vollständig
Wie schreibt Herr Heß so schön:
“Wir brauchen schon unabhängige Experimente.“
Die theoretischen CO2 Modelle gehen von einer Erhöhung der Temperatur von 0,7 bis 1,1 °K bei einer Verdoppelung des CO2 Gehaltes in der Atmosphäre aus. Diese Modelle sagen auch deutliche Hot Spots voraus. Die gemessenen Hot Spots kann man mit
Lieber Herr Bäcker,
ich glaube man nimmt mal an, dass der Fehler bei der linearen Summe nicht so groß ist, 1.9 W/m2 gegen 1.75 W/m2, laut Hansen. Wobei mir nicht klar ist, ob in dem Modell das mit allen Forcings simuliert wird, die gleiche Zerlegung rauskommt. Das habe ich bei Hansen nicht gelesen.
Allerdings gibt Hansen an, dass die Unsicherheit für den Nettostrahlungsantrieb, induziert durch das unsichere Aerosol-Forcing, etwa 1 W/m2 beträgt. Der Fehlerbalken ist also enorm.
Das macht die „climate sensitivity parameter“ Bestimmungen eher nutzlos.
Lean et al benutzen für ihre lineare Regression meines Erachtens einfach die lineare Summe.
Sie fragen:
„Außerdem dazu noch eine Frage: Was heißt denn eigentlich radiative forcing zwischen 1750 und 2000? Dieses forcing ist doch zeitabhängig und dynamisch (auch Vorzeichenwechsel sind nicht ausgeschlossen). Ist dort also nur die Differenz zwischen dem Momentanwert 2000 minus 1750 (wobei letzerer als Referenzwert auf Null gesetzt wurde und alle anderen sich als Abweichungen darauf beziehen) aufgetragen?“
Ich glaube man setzt eben 1750 auf Null. Das „radiative forcing“ in der Definition des IPCC betrachtet eben nur die linearisierte Wirkung ausgehend von einem hypothetischen Referenzzustand in einen neuen stationären Zustand, als ob das System durch eine lineare Differentialgleichung beschrieben wäre. Das „radiative forcing“ in der Definition des IPCC ist deshalb nur eine Klassifizierung, die die relative Auswirkung unterschiedlicher Einflussgrößen auf die Temperaturänderung des Systems beschreibt, falls alles andere gleich bleibt, was immer das in einem nichtlinearen system heißt.
Das „radiative forcing“ in der Definition des IPCC ist deshalb zunächst nur eine Größe die die Ergebnisse bzw. Systemantworten von Modellrechnungen darstellt und vergleicht. Mit einem gemessenen physikalischen Effekt, oder dem instantanen Strahlungsantrieb als Bilanzunterschied an der Atmosphärenobergrenze hat das zunächst nichts zu tun.
Außer für „cloud radiative forcing“. Da wechselt das IPCC zur physikalischen Definition.
Ich denke das Konzept hat Schwächen.
Mit freundlichen grüßen
Günter Heß
Lieber Herr Fischer,
der Artikel ist sehr interessant. Die Spannweite für den „climate sensitivity parameter“ geht vom 0.35 bis 1.1.
Sie müssen dann aber auch Roy Spencer’s Webseite dazu besuchen.
Im Grunde merkt man an der ganzen Diskussion, dass die Klimawissenschaftler keine experimentellen Naturwissenschaftler sind, sonst würde man als Ausgangspunkt zunächst mal den „climate sensitivity parameter“ ohne Feedbacks nehmen. Der folgt ja im Prinzip aus der mittleren Oberflächentemperatur und der effektiven Strahlungstemperatur und beträgt etwa 0.3 K/(W/m2). Beides Messergebnisse.
Die beobachtete Temperaturerhöhung von 0.8°C, ebenfalls ein Messergebnis, führt dann auf einen empirisch bestimmten Strahlungsantrieb von 2.7 W/m2. Auch ein einfaches Ergebnis und es passt. Ockham läßt grüßen. Man kann nun diese simplen Formeln selbstverständlich mit Computern in beliebig viele Faktoren zerlegen. Aber ohne Messung ist das nichts wert.
Mit freundlichen Grüßen
Günter Heß
Wie schreibt Herr Heß in #7 so schön:
“Wir brauchen schon unabhängige Experimente.“
Die theoretischen CO2 Modelle gehen von einer Erhöhung der Temperatur von 0,7 bis 1,1 °K bei einer Verdoppelung des CO2 Gehaltes in der Atmosphäre aus. Diese Modelle sagen auch deutliche Hot Spots voraus. Die gemessenen Hot Spots kann man mit
Lieber Herr Heß, #7
„Das gesamte Aerosol-Forcing setzt sich zusammen aus einem direkten Effekt und dem „cloud albedo effect“ ist also im Gegensatz zu Treibhausgasen mitnichten gut durchmischt. “
Das stimmt. Aber auch beim CO2 forcing ergeben sich regionale Unterschiede auch wenn das CO2 weitgehend homogen verteilt ist. Die
Klimasensitivität von CO2 ist nicht ortunabhängig.
„Das bedeutet, die lineare Addition der beiden Strahlungsantriebe erscheint mir naturwissenschaftlich gesehen sehr zweifelhaft.“
Richtig. Ich denke, es geht um die Darstellungen des IPCCs, in denen die radiative forcings zwischen 1750 und 2000 darstellt sind. Ist es denn wirklich so, dass die Gesamtwirkung aus der einfachen Summierung der Teileffekte berechnet wurde?
Außerdem dazu noch eine Frage: Was heißt denn eigentlich radiative forcing zwischen 1750 und 2000? Dieses forcing ist doch zeitabhängig und dynamisch (auch Vorzeichenwechsel sind nicht ausgeschlossen). Ist dort also nur die Differenz zwischen dem Momentanwert 2000 minus 1750 (wobei letzerer als Referenzwert auf Null gesetzt wurde und alle anderen sich als Abweichungen darauf beziehen) aufgetragen?
Lieber Herr Heß,
eine präzise Bestimmung der Klimasensitivität ist selbstverständlich von überragender Bedeutung für weitere Prognosen. Ich arbeite mich gerade durch das paper forster/gregory (2005), die die Klimasensitivität ohne Klimamodelle wohlgemerkt aus Messgrößen zu 1 bis 4,1°C bestimmt haben (http://tinyurl.com/3yhvs37). Einer Bewertung enthalte ich mich, wie gesagt, ich lese noch. Dachte nur, dass es vielleicht auch Sie interessieren könnte.
Sicherlich ist es nicht ausgeschlossen, dass die Zukunft noch Überraschungen zutage fördern wird, ich kenne ja ihr Beispiel zum Wolkenalbedo. Andererseits stimmt mich optimistisch, dass die Theorie bis jetzt sehr zufriedenstellend funktioniert, das gibt Hoffnung, dass man richtig liegen könnte. Eine natürliche Lebenserwartung vorausgesetzt, werde ich 2050 erleben dürfen, dann weiß ich mehr 😉
Viele Grüße
Liegt überhaupt ein Regelvorgang vor?
Daß der größte Teil der Gegenstrahlung vom Wasserdampf stammt, kann man natürlich als Regelvorgang interpretieren, aber dann muß man alle Vorgänge als Regelvorgänge betrachten.
Die Temperatur an der Erdoberfläche stellt sich so ein, daß in der Troposphäre der mittlere Temperaturgradient fast konstant ist. Dazu gehört das der latente und sensible Wärmetransport von der Erdoberfläche sich so einstellt, daß der Temperaturgradient gewährleistet wird.
Die Strahlungswirkung in der Troposphäre ist fast vernachlässigbar in der Stratosphäre ist es umgekehrt. Der Übergang von der Stratosphäre in die Troposphäre geschieht dann, wenn der Temperaturgradient in der Stratosphäre den Grenzwert erreicht, ab den die Luftschichtung instabil wird und die Vertikalzirkulation einsetzt.
MfG
Lieber Herr Fischer,
Sie haben recht das hat etwas mit Glück und Zufall zu tun, aber nicht mit Naturwissenschaft.
Das gesamte Aerosol-Forcing setzt sich zusammen aus einem direkten Effekt und dem „cloud albedo effect“ ist also im Gegensatz zu Treibhausgasen mitnichten gut durchmischt. Das bedeutet, die lineare Addition der beiden Strahlungsantriebe erscheint mir naturwissenschaftlich gesehen sehr zweifelhaft. Dem IPCC geht es auch so, addiert aber vorsichtshalber schon mal. Das IPCC gibt auch den „level of Scientific Understanding“ LOSU für Aerosole mit niedrig (med/low , low) an. Das macht ja wohl nichts besser , oder? Wir ziehen von einem ungenau bekannten Strahlungsantrieb für Treibhausgase den noch weniger bekannten Beitrag der Aerosole ab und multiplizieren mit einem unbekannten „climate sensitivity parameter“, um die temperaturerhöhung zu erklären. Man kann das Spielchen sicherlich machen. Aber daraus Belege für die Gültigkeit des Modells zu generieren, halte ich im hohen Grade für zweifelhaft und für einen Zirkelschluss. Wir brauchen schon unabhängige Experimente. Selbstverständlich stimmt immer mal die Multiplikation zweier Fitparameter.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß,
Sie haben Recht, mir ist da ein Fehler unterlaufen, da ich die Erklärung nur monokausal auf CO2 reduziert habe. Danke für den Hinweis.
Dennoch war ich zunächst mehr als verwirrt, weil meine Ergebnisse überraschend gut zur Abbildung im Artikel passten. Die IPCC-Prognosen hätten dann ja ihre Ergebnisse widerspiegeln sollen und nicht meine.
Des Rätsels Lösung:
Sie haben zwar richtigerweise auch die anderen Treibhausgase berücksichtigt, es fehlt bei ihnen aber noch die Wirkung der Aerosole.
Mir fiel ein, dass Rahmstorf kürzlich seit längerem mal wieder einen wirklich lesenswerten Artikel in seinem Blog („Global warming hat Geburtstag“) veröffentlicht hat, der von dem Pionier W. Broecker handelt. Ich zitiere daraus:
„Hier [Broecker hatte sich in den 70er Jahren nur auf die Wirkung von CO2 beschränkt] hatte Broecker das Glück auf seiner Seite: Die Erwärmung durch andere Gase und die Abkühlung durch Aerosole wiegen sich heute größtenteils gegenseitig auf – das CO2 alleine führt daher zu nahezu demselben Strahlungsantrieb wie alle anthropogenen Effekte auf das Klima zusammen (siehe IPCC AR4, Fig. SPM.2).“
Kurz:
Ich hatte damit dasselbe Glück. Demzufolge werden auch die angenommenen Werte der Klimasensitivität von 0,8°C/Wm^-2 und damit eine Klimasensitivität bzgl. Verdopplung der CO2-Konzentration von rund 3° bekräftigt.
Herzliche Grüße
Lieber Herr Fischer,
ich denke ihr Argument bzw. ihr Dreisatz hinkt. Wir haben zur Zeit laut GISS einen Strahlenantrieb durch Treibhausgase von etwa 2.9 W/m2 (GISS 2003, 2.75 W/m2). Eine Verkürzung der Diskussion auf CO2 bringt nichts, da diese Einflüsse in der Natur nicht abgetrennt werden können.
Mit ihren 0,8 °C/(Wm^-2), komme ich also auf ein dT von 2.2 °C für alle Treibhausgase.
Der „transient climate response“ (TCR) für das GISS Model E beträgt etwa 55% von der stationären Temperatur. Falls das stimmt sollten wir zur Zeit ja etwa eine Temperaturerhöhung von 1.6°C beobachten, wenn die 0,8 °C/(Wm^-2) stimmen, oder nicht?
Ihre angenommene Klimasensitivität von 0,8 °C/(Wm^-2)erscheint mir deshalb alleine aufgrund der beobachteten Temperaturzunahme zu hoch. Der reine Dreisatz gibt dann etwa 0,5°C/(Wm^-2),was die stationäre Temperaturänderung für Verdopplung von CO2 zu 1.7°C berechnet.
Das gilt, wenn man die ganze beobachtete Temperaturerhöhung auf CO2 oder Treibhausgase schiebt.
Nehmen wir mal an, dass die beobachtete Temperaturerhöhung nur zu 70% auf Treibhausgase zurückzuführen ist, dann sind wir bei einem „climate sensitivity parameter“ von etwa 0,35 °C/(Wm^-2).
Ich möchte an dieser Stelle bemerken, dass diese Dreisatzspielchen von mir, Herrn Link oder Ihnen natürlich nichts beweisen, sondern viel mehr zeigen, dass die Berechnung einer Temperaturerhöhung aus einer Multiplikation eines ungenau bekannten „climate sensitivity parameter“ mit einem ungenau bekannten Strahlungsantrieb im Grunde genommen müßig ist und nicht mehr ist als die Multiplikation zweier Fitparameter.
Was wir in der Tat brauchen ist eine unabhängige Messung des „climate sensitivity parameter“ und des Strahlungsantriebes durch Treibhausgase.
Mit freundlichen Grüßen
Günter Heß
Sehr geehrter Herr Link,
zu 1)
ich möchte ihrem Argument noch ergänzend anfügen, dass es beim Klima wenig Sinn macht, die positive Rückkopplung für sehr große Zeiten abzuschätzen. Denn irgendwann wäre die Erwärmung so groß, dass z.B. das Eis der Pole schmelzen würde und sich damit die Albedo verändern würde, sodass plötzlich ganz andere Effekte dominieren.
zu 2)
„Der Vorfaktor 5,35 ist der des IPCC. Er ist wohl mindestens um einen Faktor 3 zu hoch,…“
Hier allerdings bin ich anderer Meinung. Wäre der Vorfaktor tatsächlich um einen Faktor 3 zu hoch, käme ich in meiner Rechnung in #2 für die CO2-Entwicklung bis heute nicht mehr auf dT=1,3°C, sondern nur noch auf eine Temperaturzunahme von ca. 0,4°C. Wir wissen aber, dass die Temperaturzunahme bis heute bereits 0,7 – 0,8°C beträgt, wie auch der Autor schreibt und man der Abbildung im Artikel entnehmen kann.
D.h., mit ihrem Wert des Vorfaktors kann die heutige Temperaturentwicklung nicht mehr mit CO2 erklärt werden, mit dem Wert des IPCC stimmt die Temperaturentwicklung bis heute ganz gut überein.
Dies ist ihnen wohl bewusst, nehme ich an, und sie wenden jetzt ein, dass die Temperaturentwicklung eben nicht alleine mit CO2 erklärt werden kann. Sie bräuchten dann aber ein weiteres, nicht von CO2 stammendes forcing von knapp über 1 W/m^2, um auf das richtige Ergebnis zu kommen. Schwankungen der solaren Aktivität bewegen sich seit Jahrhunderten und länger im Zehntelbereich, wir bräuchten also etwas anderes neues, was ich so nicht erkennen bzw. erahnen kann.
Viele Grüße
Zu 1) Die Aussage von Prof. Weiss im ersten von ihm genannten Punkt ist nicht korrekt.
Bei einfachen linearen Verstärkungen erhält man als Ergebnis ganz allgemein:
AUSGANGSSIGNAL=EINGANGSSIGNAL*(1/(1-G)).
Diese Relation ist für alle G kleiner +1 gültig.
Bei der Klimarückkopplung bleibt G im linearen Fall immer kleiner 1. Unendliche Reihen der Form 1+x+x2+x3+… haben nicht automatisch Unendlich als Grenzwert. Sie konvergieren mit x kleiner 1.
Nyquist braucht man in diesem einfachen Fall nicht zu bemühen und einen Runaway Effekt gibt es – solange der lineare Bereich nicht verlassen wird –
ebenfalls nicht. Linear im hier verstandenen Sinne heißt, dass die Klimasensitivität eines jeden Beitrages unabhängig von den anderen Beiträgen ist.
Zu 2)Die Konzentrationsabhängigkeit der Temperaturanomalie ist proportional zum natürlichen Logarithmus des Verhältnisses der CO2 Konzentrationen in der Amosphäre, wie Herr Fischer richtig bemerkt.
Der Vorfaktor 5,35 ist der des IPCC. Er ist wohl mindestens um einen Faktor 3 zu hoch, denn die 1,3°C T-Erhöhung bis heute bei der derzeitigen Konzentrationserhöhung von CO2 um 35% konnten wir bisher nicht beobachten. Eine einfache, vielleicht etwas zu einfache Überlegung, zeigt dies: Zieht man von den 0,8°C gemittelter globaler Erwärmung bis heute noch die natürliche Erwärmung ab, sagen wir 50%, so erhält man in der Tat einen Vorfaktor 0,4/1,3*5,35=1,64.
Auf den Unterschied zur transienten Wärme kann man bei Temperatur-Responszeiten der klimawirksamen Ozeanschichten von 5+-2 Jahren allerdings auch nicht bauen.
Zum Thermostaten:
Es mag nicht ausgeschlossen sein, dass es einen thermostatähnlichen Regelkreis im „Erd-Klima“ oder einzelnen Klimaregionen gibt. Bisher ist mir noch keiner als plausibel vorgekommen (Miskolczi kann den Thermostaten nicht wirklich benennen).
Einen uns allen bekannten thermostatähnlichen Effekt kann die Erde als Ganzes allerdings vorweisen: Die Stephan-Boltzmann-Gleichung (oder die Planck-Gleichung). Jede Temperaturänderung des Gesamterdsystems, wodurch auch immer bewirkt, wird gemäß S-B durch eine Abstrahlung proportional T^4 kompensiert, damit Sonneneinstrahlung und Erdabstrahlung wieder ins Gleichgewicht kommen. Natürlich trägt auch die Änderung der Reflexion von Sonnenstrahlung durch die Erdalbedo zur Veränderung des Gleichgewichtes bei. Eine Temperaturerhöhung müsste dann im Sinne eines Thermostaten zu einer Erhöhung der Albedo führen und umgekehrt.
Ob der äußere Einfluß kosmische Strahlung die Albedo nennenswert beeinflusst, wird das Experiment „Cloud“ am CERN in Genf zeigen.
Einen Thermostaten für jedes Untersystem auf der Erde kann ich dagegen bisher nicht so deutlich erkennen.
An der Stelle, wo der Autor über Klima zu schreiben und zu rechnen beginnt, fangen auch schon meine Probleme an:
„Die endlichen Verstärkungen erlauben einen Test: Nach Angabe der offiziellen Klimaforschung gelten folgende Zahlen: der „natürliche Treibhauseffekt“: 33 °C. 29% davon entfallen auf CO2 (der wesentliche Rest auf Wasserdampf ). Erhöhung der Erdtemperatur seit Beginn industrieller CO2 Emission 0,7 °C. Zunahme der CO2-Konzentration in diesem Zeitraum 35%. 29% von 33°C sind 9,6 °C. Mit Erhöhung der CO2-Konzentration um 35% hat sich aber die Temperatur nicht um (35% von 9,6 °C =) 3,3 °C erhöht, sondern nur um 0,7 °C.“
Dieser Dreisatzrechnung liegt die Annahme einer Linearität zugrunde, die aber nicht gegeben ist. Richtig ist stattdessen ein logarithmischer Zusammenhang, denn:
Für das forcing dF von CO2 gibt es die Näherungsformel dF = 5,35*ln(C/Co), wo C die Konzentrationen von CO2 angeben.
Gleichzeitig ist die Temperaturzunahme dT gegeben durch dT = lambda*dF, wo lambda die übliche Klimasensitivität von ca. 0,8 °C/(Wm^-2) ist (bitte nicht verwechseln mit der Klimasensitivität für Verdopplung von CO2, diese beträgt ca. 3°)
Probieren wir doch mal mit diesen Formeln das Beispiel des Autors aus:
Bei einer Zunahme der CO2-Konzentration um 35% erhält man ein forcing von 1,61 W/m^2.
Eingesetzt in die zweite Formel ergibt dies eine neue Gleichgewichtstemperatur von ca. 1,3°.
Dies ist nicht die momentane Temperaturzunahme von 0,7°C, sondern die neue Gleichgewichtstemperatur, die sich wegen der Trägheit der Ozeane erst später einstellt.
Man vergleiche den Wert von dT=1,3°C nun mit der untersten, gelben Kurve des Diagramms und wird feststellen, dass das alles doch ganz stimmig ist, obwohl die erste Formel eine Näherung beschreibt, die für das Beispiel des Autors wohl etwas grob erscheint.
Einige Zeilen später schreibt der Autor:
„Führte man diese 0,7 °C auf den Einfluss von CO2 zurück wie vom IPCC behauptet, dann würde dies Nichtlinearität des Einflusses von CO2 zeigen.“
Dass der Einfluss nichtlinear ist, war schon vorher klar, man sehe meine obigen Ausführungen. Meine Verwirrung steigt…
Dann:
„Es folgt, dass für sehr große CO2 Konzentrationen die Erdtemperatur einem Grenzwert von +0,9 °C zustrebt.“
Welchen Wert haben schon Schlussfolgerungen, die aus falschen Annahmen gezogen werden? Ok, das war jetzt rhetorisch 😉
Kurz:
Der Autor hat den logarithmischen Zusammenhang meines Erachtens nicht beachtet und erhält deshalb größere Abweichungen.
Eine weitere, weniger schwerwiegende Ungenauigkeit ist, dass er nicht zwischen der transienten Temperatur und der neuen Gleichgewichtstemperatur unterscheidet.
Falls ich etwas übersehen habe, freue ich mich über Rückmeldungen dazu.
Guter Beitrag. Eins noch dazu, es wird ja nicht nur C02 produziert sondern auch in großen Mengen verbraucht.
Manchmal wird dies aber nur als Einbahnstraße dargestellt. Der „normal“ Bürger wird immer nur das schlechte am C02 gezeigt. Das gute (Pflanzenwachstum) bzw. das C02 lebensnotwendig für unser Leben ist und dementpsrechend von vielen Organismen gebraucht werden, wird viel zu sehr in den Medien unterschlagen.
Zusammengefasst:
C02 wird nicht nur produziert sondern auch zum Großteil wieder abgebaut (verbraucht)!