Mojib Latif ist Leiter des Leibniz-Instituts für Meereswissenschaften der Universität Kiel, Spezialist für Computer-Klimamodelle und renommierter IPCC-Autor. Was steckt hinter seiner Aussage
http://www.newscientist.com/article/dn17742-worlds-climate-could-cool-first-warm-later.html
die einem Paradigmenwechsel der IPCC-Klimawissenschaft gleichkommt?
Tatsächlich messen Meteorologen schon seit dem Jahre 2000 eine Abnahme der Erdtemperatur, ohne dass dies öffentliche Resonanz erfuhr. Allerdings dürften aufmerksamen Zeitgenossen die letzten harten Winter und das Ausbleiben der üblichen Klagen von Skiliftbetreibern über zu wenig Schnee und auch die allmähliche Zunahme der arktischen Eisflächen
http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic
nicht entgangen sein. Die Erde kühlt sich ab, obwohl die Konzentration von CO2 weiter zunimmt – von 0,030% auf 0,038%, also um 0,008% Volumenanteil der Luft während der letzten 100 Jahre. Die Wissenschaft ist sich einig, dass CO2 als Treibhausgas erwärmend wirkt. Allerdings ist die Stärke dieses Effekts unsicher. Aus dem Statement von M. Latif ergibt sich daher die Frage nach der Ursache der jüngsten Abkühlung. Die Klimaforschung bietet leider nur Vermutungen an. Die weitaus wahrscheinlichste betrifft unser Zentralgestirn, die Sonne.
Der auf die Erde treffende Energiefluss der Sonne ist zwar praktisch konstant und kommt daher als Ursache für maßgebende Änderungen von Erdtemperaturen in Klimazeiträumen nicht in Frage. Unsere Sonne ist indes alles andere als ruhig. Über viele Millionen Kilometer ins All hinausschießende Sonnenfackeln, stark variierende Sonnenfleckenzahlen und dramatische Änderungen des Sonnenmagnetfelds sind ihre Kennzeichen. Besonders heftige Sonnen-Störungen sind wegen ihrer gefährlichen Auswirkungen, wie Unterbrechungen des Funkverkehrs, Strahlungsgefährdung von Astronauten in Raumstationen, bis hin zum Zusammenbrechen landesweiter Hochspannungsnetze, gefürchtet. Die Dynamik der Sonne hinterlässt ferner Isotopen-Spuren in geologischen Sedimenten, die analysiert und mit den zeitgleichen historischen Erdtemperaturen verglichen werden können. Die Klimaforscher Nir J. Shaviv und Ján Veizer haben aus solchen Analysen einen nahezu perfekten Gleichklang zwischen Sonnenaktivität und Erdtemperaturen über viele hundert Millionen Jahre Erdgeschichte nachgewiesen (s. pdf Shaviv_Veizer und Shaviv). Ab Beginn des 17. Jahrhunderts begann dann mit Hilfe des Fernrohrs die systematische Zählung von Sonnenflecken. Ihre Anzahl entspricht der Stärke des Sonnenmagnetfeldes. Die „kleine Eiszeit“ am Ende des 17. Jahrhunderts, die uns in vielen Winterbildern holländischer Maler, etwa der berühmten „Heimkehr der Jäger“ von Pieter Breughel vor Augen geführt wird, ging mit einem fast völligen Verschwinden der Sonnenflecken einher. Der gute Gleichklang (Korrelation) von Sonnenaktivität und Erdtemperatur ist inzwischen lückenlos bis zum heutigen Tage gesichert (s. pdf Svensmark, Borchert und Malberg, ferner http://www.eike-klima-energie.eu/news-anzeige/klima-sonnenflecken-und-kosmische-strahlung/ und
http://www.eike-klima-energie.eu/news-anzeige/klima-sonnenflecken-und-kosmische-strahlung-teil-ii/).
Forscher wie Nicola Scafetta und Bruce J. West (s. pdf Scafetta und Scafetta_West) wenden dazu ganz neuartige statistische Verfahren an und bestätigen mit ihnen die Gültigkeit dieses Gleichklangs auch für die wenigen Zeitabschnitte, in denen die klassische mathematische Korrelation keine guten Ergebnisse ausweist.
Seit ihrem Maximum im Jahre 2001 sind die Sonnenflecken in dramatischer Abweichung von den bekannten Zyklen inzwischen komplett verschwunden. Wir werden somit aktuell wieder mit dem gleichen Phänomen konfrontiert, wie zur kleinen Eiszeit des 17. Jahrhunderts. Analysen der Sonnenforschung zeigen zudem, dass dieser beunruhigende Zustand vermutlich noch Jahrzehnte anhalten wird (s. pdf livingston_penn). Zukünftig deutlich kälteres Klima ist daher wahrscheinlich, im ungünstigsten Fall werden wieder extreme Verhältnisse auftreten.
So überzeugend der statistische Nachweis des Sonneneinflusses auf unser Klima auch ist, darf nicht vergessen werden, dass noch weitere Mechanismen die Klimaentwicklung bestimmen. Vom Vulkanismus, über die bis heute nicht voll verstandenen Oszillationen eines El Nino und der jedem Meteorologen geläufigen NAO, bis hin zur Klimawirksamkeit von Aerosolen und Treibhausgasen reicht die Anzahl der „üblichen Verdächtigen“. Zum statistisch gesicherten Gleichlauf von Sonnendynamik und Klima fehlt außerdem noch eine durch Messungen belegte physikalische Erklärung. Bis heute gibt es hierzu nur Hypothesen. Die wahrscheinlichste basiert auf einem zuerst von den Forschern Eigil Friis-Christensen, Knud Lassen und Henrik Svensmark vorgeschlagenen Mechanismus: Das variierende Sonnenmagnetfeld moduliert die Anzahl der auf die Erde treffenden elektrisch geladenen Partikel der kosmischen Strahlung. Diese Partikel sind an der Keimbildung von abkühlenden Wolken beteiligt, so dass über eine längere Wirkungskette das Sonnenmagnetfeld die Erdtemperatur steuert (s. pdf Svensmark). Es ist aber noch nicht gelungen, diese Hypothese zweifelsfrei zu bestätigen. Die Natur ist offenbar viel komplexer, als vermutet. Der Gleichklang Sonne-Klima ist bis heute nur bestens statistisch gesichert.
Die Aussage von M. Latif auf der Genfer Klimakonferenz wird nunmehr verständlicher. Als IPCC-Autor spricht er von einem Wiedereinsetzen der CO2-bedingten Erwärmung nach der prognostizierten Kältephase (s. pdf-File seines Genfer Vortrags unten, hier am 6.10. eingefügt). Tatsächlich wurde von IPCC-Forschern der Einfluss der Sonne auf Erdtemperaturen zu Gunsten der Rolle des CO2 bislang weitgehend ignoriert. Hält die Abkühlung in den nächsten Jahren weiter an, sind aber zweifellos harte Fragen zum Klimaeinfluss des menschgemachten CO2 unvermeidbar. Können extrem kostspielige CO2-Vermeidungsmaßnahmen angesichts eines eventuell unmaßgeblichen Einflusses dieses Treibhausgases im Hinblick auf wichtigere Umweltmaßnahmen, wie etwa die Versorgung von Dürregebieten unserer Erde mit sauberem Trinkwasser, noch verantwortet werden?
Prof. Dr. Horst-Joachim Lüdecke
Dipl.-Physiker
(EIKE-Pressesprecher)
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Herr Latif sollte in Pension gehen und uns mit seinen Prognosen in Ruhe lassen. Daß die Sonnenaktivität mit dem Erdklima in direkter Verbindung steht, wußte ich schon in den Siebzigern. Ebenso, daß sie nicht vorhersagbar ist. Woher will nun Herr Latif wissen, wie sie sich weiterentwickelt?
Bisher hat dieser merkwürdige Wissenschaftler vor allem denen gedient, die sich mit dem sogenannten Klimawandel eine goldene Nase verdient haben. Und ich denke, das wird auch so bleiben!
Gleich, was die fehlerhaften Rechnungen und Hypothesen der Wissenschaft fuer Ergebnisse bringen: der Abfall vom schoepfenden All-Geist ist das Problem der Menschheit. Wer sich an das haelt was Jesus Christus sagte, braucht seinem physischen Tod nicht nachtrauern, denn wir alle muessen diesen sterben. Jesus sagte: „Was nuetzte es, wenn du die ganze Welt gewoennest, aber deine Unsterblichkeit dafuer verlierst.“ Und genau diesen Abfall von Gott, den wir heute weltweit finden ist, dass ist die Achillesferse einer weltweiten Poebel(miss)wirtschaft.
Lieber Herr F.C.Ewald,
logisch kommt es auf die lokalen Änderungen an, oder glauben Sie die Experten würden den globalen Mittelwert überall gleichermaßen annehmen? Sie können sich ja mal überlegen, wieviel Abweichung in der Meeresoberfläche von der Äquipotentialfläche dynamisch möglich sind. Der Golf-Freistrahl ist ca. ein Meter über die Atlantikbreite dynamisch gekippt. Mehr als ein paar Dekameter räumliche Variation kann also nicht drin sein, um nicht die Meeresströmungen grundlegend zu ändern. D.h. wenn ein mittlerer Anstieg in 2100 von >20 cm angenommen wird, so wird fast überall der Meeresspiegel gestiegen sein, mal mehr mal weniger.
Zunächst zur Ergänzung des Beitrags von 31: Sahne v. 24.9. noch folgendes; auch mit dem so gern prognostizierten mittl. Meeresniveauanstieg von 20 cm oder auch mal 100 bis 2100 verhält es sich ähnlich; wichtig sind die regionalen mittl. Hochwasserstände, wie man früher als Nordsee-anrainer schon in der Heimatkunde lernte. Zu viele sog. Wissenschaftler reden der Politik nach dem Munde – indem sie pro domo (bestenfalls ihre Disziplin) für mehr Fördergelder argumentieren. Vielen Bürgern wird man auch ein Mindestmaß an Verständnis für globale Klima- oder sogar Welt- modelle nicht abverlangen können, wenn selbst viele Wissenschaftler sich nicht einig sind was sie zu leisten vermögen und was nicht. Wer sich mit den div.( Rechen-) Modellen im Rahmen der Studien des Club of Rome beschäftigt hat, hätte lernen können, daß wir zur Vermeidung von Rohstoff-abhängigkeiten von arab. und russ. Quellen den Ausstieg aus der Kohleförderung schon vor 30 J. hätten beschließen müssen, da die Kohle mal dazu dienen kann Benzin mit dem Fischer-Tropsch Verfahren zu produzieren. Dann wäre D in der guten Lage wie heute F, wo ein pol. Ziel wie 20 oder 40% der Energie aus Ern. Energien ( absolut unwirt- schaftlich) produzieren zu wollen nur als Öko- lachnummer angesehen wird. mfG FCE Alicante
Lieber Herr NB,
vielen Dank für die interessante Diskussion zu diesem Thema, ihre Argumente, Anregungen und auch die Antworten. Man lernt ja im Dialog eigentlich immer etwas. Ich habe etwas dabei gelernt. Danke schön auch dafür. Die physikalischen Begründungen sollten wir weiter suchen. Denn es hängt ja kein unwichtiges Argument daran.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess,
ok, ich habe Sie nun wohl verstanden. Aber ich fürchte, ich kann Ihnen da auch nicht mehr „physikalische Rechtfertigungen“ für die Vorgehensweise nennen als Latif/DEMETER, außer dass die Modellierer guten Erfahrungen damit gemacht haben (wie auch bei der Wettervorhersage mit Ensemblen oder eben den saisonalen Vorhersagen). Ich denke, viel mehr Physik/Stochastik steckt nicht dahinter. Gucken Sie mal in Ar4 Ch. 8, da gibt es noch ein paar Erklärungen bzgl. Ursachen.
Sie sehen aber an den Unsicherheitsintervallen für z.B. die Klimasensitivität bei CO2-Verdopplung, wie vorsichtig man daher mit Aussagen ist. Diese Unsicherheitsintervalle kommen ja aus den Einzel-Modell-Ergebnissen. Auch da kann man wieder fragen, ob man das Bündel aus verschiedenen Einzel-Modelleergebnissen (nach der von Ihnen angesprochenen „Renormierung“) statistisch äquivalent („deckungsgleich“) zu dem gesuchten statistischen Ensemble sind, was sich aus den Klimasystem eigenen Nichtlinearitäten ergibt.
Lieber Herr NB,
Sie schreiben, dass das aus mehreren Modellergebnissen gebildete Mittel im Allgemeinen keinen physikalischen Zustand darstellt. Darin stimmen wir, wie sie oben von mir lesen können überein.
Ich bin mir aber nicht sicher, ob sie mich richtig verstanden haben. Deshalb nochmal anders.
Jedes der von mir in #82 beschriebenen Modelle liefert den Temperaturverlauf als Funktion der Zeit. Aus diesem Temperaturverlauf kann man dann die Temperaturanomalie zu einer Referenzperiode berechnen. Dadurch werden alle Modelle zentriert, obwohl sie vorher das Erdsystem bei verschiedenen Mitteltemperaturen (12 °C – 17°C) beschrieben haben.
Ich suche deshalb die physikalische Begründung dafür, warum man diese Temperaturanomalien absolut vergleichen kann bzw. über sie mitteln kann. Aus dem oben gesagten hätte ich verstanden, dass wir beide der Meinung sind, man kann das im Allgemeinen eigentlich nicht.
Mein Lehrbuch „Klimawandel und Klimadynamik“ bleibt da leider eher vage. Prof. Latif schreibt darin auf S.132:
„Die Klimamodelle weisen daneben z.T. beträchtliche Fehler auf, sowohl was die Simulation des mittleren Klimas, als auch der Variabilität angeht. Man mittelt daher ebenfalls die Ergebnisse verschiedener Klimamodelle, in der Hoffnung, dass die Modellfehler zufällig verteilt sind und sich die Modellunsicherheit durch die Mittelwertbildung reduzieren lässt. In der Tat zeigen verschiedene Studien, dass dies der Fall sein kann.“
Das erschien mir als Erklärung unbefriedigend. Ich wüßte deshalb gerne eine physikalische Begründung, speziell zur Temperaturanomalie
Aus der im Buch zitierten Quelle: http://tinyurl.com/yboo5b4
„DEVELOPMENT OF A EUROPEAN MULTIMODEL ENSEMBLE SYSTEM FOR SEASONAL-TO-INTERANNUALPREDICTION (DEMETER) by Palmer et al, BAMS Juni 2004, S.853” schließe ich, dass die Begründung quasi-empirisch aus dem „hindcasting“ gewonnen wird. Allerdings hat die Quelle eher kurze Zeiträume untersucht.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess,
wenn ich Sie richtig verstehe ist Ihre Frage, ob das aus mehreren Modellergebnissen gebildete Mittel auch einen möglichen physikalischen Zustand darstellt. Die Antwort ist: i.A. nein, denn die Mittelwertbildung ist linear, aber viele physikalischen Größe sind nichtlinear abhängig. Diesen Effekt haben Sie auch bei Mitteln über gemessene Zeitreihen, ein klimatologisches Beispiel: berechnen Sie den Mittelwert einer Zeitreihe des Dampfdrucks und der Temperatur. aus beiden Mittelwerten läßt sich eine zugehörige relative Luftfeuchtigkeit ableiten. Dieser Wert stimmt jedoch nicht mit dem Mittelwert aus den aus den beiden Messreihen punktweise berechneten relativen Luftfeuchtigkeiten überein.
Ums klar zu machen: Mittelwerte sind nach der Schätztheorie der Stochastik nur dann der „best guess“ für den Erwartungswert, wenn die Werte normalverteilt sind. Dies ist jedoch für viele physikalische Größen wegen der nichtlinearen Abhängigkeiten notwendigerweise nicht der Fall. Wenn Sie jedoch nun einen Temperaturmittelwert aus einem Klimamodell mit dem Mittelwert aus Messwerten berechnen, so ist dies natürlich korrekt, selbst wenn beide nicht dem Erwartungswert entsprechen würden. In der Praxis sind jedoch die Fehler und Unsicherheiten aus anderen Gründen (Datenqualität/-dichte, Modellqualität) größer als der Effekt aufgrund einer nicht-normalen Verteilung.
Lieber Herr Limburg,
Sie fühlen sich also schlecht informiert? Machen Sie einen Besuchstermin beim DKRZ o.ä. ab. Die Modell-Experten dort klären Ihnen sicherlich gerne Ihre Fragen, so habe ich dies zumindest persönlich erfahren.
Lieber Herr NB,
kurzer Nachtrag. Ich beziehe mich mit meiner Frage auf den „MultiModel Mean“, falls das nicht klar geworden sein sollte.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr NB,
damit sie mich verstehen ganz konkret aus der ClimateExplorer Webseite. Ich habe Modelle mit unterschiedlichen Verläufen der tas (surface air temperature)ausgewählt, um meine Frage zu verdeutlchen.
Das Model CSIRO MK3 20cm3, betrachtet habe ich tas (surface air temperature), startet bei 12.7°C in 1871. Die Temperatur fällt bis 1945 auf 12.3°C. Von da an steigt die Temperatur mehr oder weniger kontinuierlich bis auf 13°C.
Das Modell INGV_echam4 20cm3 , betrachtet habe ich tas, steigt hingegen kontinuierlich von 14.8°C auf 15.8°C.
Das Modell BCC cm1 20cm3, betrachtet habe ich tas, startet bei 16.6°C, fällt bis 1910 auf 16.5°C, steigt bis 1940 auf 16.9°C, fällt bis 1980 auf 16.8°C und steigt bis 2000 auf 17.2°C.
Das Modell GFDL CM 2.0 20cm3, betrachtet habe ich tas, startet 1860 bei 12.2 °C, fällt bis 1880°C auf 11.8°C und steigt von dort auf 12.2 in 1900, steigt bis13.2 in 2000.
Das Modell GISS EH 20cm3, betrachtet habe ich tas,startet 1880 bei 15° °C, fällt bis 1885°C auf 14.5°C und steigt von dort auf 14.9 in 1900, steigt bis15.5 in 2000.
Qualitativ für mich sehr unterschiedliche Verläufe.
Meine Frage nochmal: Ist es physikalisch gerechtfertigt den Mittelwert der tas (surface air temperature) bzw. der Temperaturanomalie über diese Modelle zu bilden? Wenn ja wüßte ich gerne die physikalische Erklärung warum das erlaubt ist?
Mit freundlichen Grüßen
Günter Heß
Herr Limburg,
vielleicht sollten Sie einfach mal diese aktuelle Konferenz besuchen. Lassen Sie sich erklären, wieweit Ihre „Tatsachen“ bei der Beurteilung der Abbildungsgüte eines Modells zur Realität relevant sind. Da können Sie direkt fragen, was Prof Peitgen zur dort ebenfalls vorgestellten Klimamodellierung sagt und was daran anders sein sollte, als bei den anderen dort vorgestellten modellierten Welten. Darunter gibt es genug nicht minder chaotische Systeme. Ein Tipp: formulieren Sie Ihre Fragen gaaanz konkret – wenn Sie so rumpalavern wie hier, wird keiner Lust verspüren, Ihr konfuses Halbwissen für Sie zu sortieren.
http://leopoldina.mpi-inf.mpg.de/dante-cms/live/struktur.jdante?sid=FPGEGBENFDEIEMFPCIADAAAAAAGJAIAEAAAAGGBEDBCODCDFDEDEDJDEDDDDDEDGDGDFDCDCDGDCEFDJGMADAAAAAAIMGAMIDBKDCN58DC&dph=&aid=1131&back_id=4141&parent_id=3746&node_id=4169
Herr Limburg,
mit Ihrem Kommentar kann ich nichts anfangen.
Zeigen Sie mir an einem konkreten Klimmodell, was genau dort falsch oder unvollständig ist.
Lieber Herr Hess,
„Mathematisch und statistisch ist das richtig, aber ein Mittelwert muss auch physikalisch einen Sinn haben. “
Richtig, physikalisch kann man mit dem globalen Temperaturmittel nicht weiterarbeiten (ausser in den einfachsten 1-dim Erklärungsmodellen wie Energiebilanzmodelle mit einer simplen Modellatmosphäre ohne Wasser o.a.). Wenn in den Szenarien gerne das globale Temperaturmittel gezeigt wird, so ist dies ja nur die simpleste Information, die man aus den Modellen gewinnt.
Wenn ich Sie richtig verstehe, sehen Sie das Problem, dass es paasieren könnte, dass ein Modell bei niedriger Globaltemperatur mehr Eisbedeckung veranschlagt als ein Modell bei höherer Temperatur. Wenn nun durch Prozesse dem Boden mehr Energie zugeführt wird, so wird die im ersten Fall mehr zum Schmelzen von Eis „verwendet“ als beim zweiten Fall und damit bleibt für die Lufterwärmung weniger übrig. Das ist natürlich richtig und würde auch so passieren. Aber so fängt man mit den Modellen ja nicht an. Man gibt kein globales Mittel und eine dazu passende räumliche Temperaturverteilung vor, sondern man gibt die klimatreibenden Ursachen vor (also deren Energieflüsse etc. zum Startpunkt) und rechnet dann den dazugehörigen Klimazustand aus. Dann ergeben sich die räumlichen Parameterverteilungen (wie Temperatur) von selbst. Wenn sich das Modell eingependelt hat (stationär wird), kann man die klimatreibenden Ursachen zeitlich verändern und die Drift des Klimas darauf verfolgen (z.B. mit Szenarienverläufen dieser Parameter oder nach bekannten gemessenen Verläufen). Der Start passiert nun aber nicht bei einer Erde als Eisball, der erstmal von 0 K aus geheizt werden müsste, sondern es werden schon die Parameterverteilungen wie sie sich zu dem Startpunkt (in der Vergangenheit mit näherungsweise bekannten Verteilungen) vorliegen. Wenn man z.B. ein Modell bis 2100 rechnen will, so startet man z.B. 1980, gibt die durch messungen bekannten Verteilungen von Eis, Temperatur etc. vor und läßt das Modell von diesem Zustand aus starten und unter konstanten klimatreibenden Faktoren (auch von 1980) solange rechnen, bis das Modell nicht mehr driftet. D.h. das Modellklima passt zusammen mit den klimatreibenden Faktoren von 1980, m.a.W. im stationären Zustand wird das 1980iger Klima beschrieben. Von dort aus läßt sich dann weiterrechnen, wenn man die klimatreibenden Faktoren gezielt variiert oder über Rückkopplungen ans Klima selber beeinflussen läßt.
Lieber Herr NB,
Sie schreiben:
„Problematisch wird es dann, wenn man diesen Mittelwert als Eingangsgröße für Folgeprozesse hernimmt. Das darf man nicht. Denn dann kommt schnell Unsinn raus. Ihr Beispiel zeigt ja, dass es Unsinn ist, die Mitteltemperatur als Mass für eine globale Gesamtenthalpie zu nehmen. Aber nicht nur bei Phasenübergängen, sondern schon bei jeder nicht-linearen Beziehung wird das Ergebnis falsch, wenn man statt die lokalen Größen ihr räumliches Mittel verwendet.“
Da sind wir uns ja einig. Man könnte höchstens für ein homogenes Teilsystem eine Temperaturänderung als angenähertes Maß für eine Enthalpieänderung nehmen. Aber wie oben gesagt vorausgesetzt es haben keine Phasenübergänge stattgefunden. Aber das muss man dann von Fall zu Fall diskutieren.
Übrigens sehe ich innerhalb eines Modells zunächst keine Probleme. Das wird nach dem Stand des Wissens behandelt.
Aber sie schreiben auch:
„zunächst kann man von jeder physikalischen Größe einen räumlichen oder zeitlichen Mittelwert bilden.“
Mathematisch und statistisch ist das richtig, aber ein Mittelwert muss auch physikalisch einen Sinn haben. Zum Beispiel macht es ja physikalisch keinen Sinn, die mittlere Emissionswellenlänge über ein Emissionsspektrum mit diskreten Linien zu messen. Es macht auch keinen Sinn 2 identische chemische Reaktionen in verschiedenen Reaktoren bei verschiedenen Temperaturen zu untersuchen und gemittelte Konzentrationen oder Temperaturen falls die reaktion z.B. exotherm ist über beide Reaktoren über die Zeit aufzutragen. Intensive Größen wie die Temperatur sind zusätzlich besonders zu beachten.
Meine Frage bezieht sich auch weniger auf die Methode der Modellierung, sondern auf die Schlussfolgerungen die man aus den Ergebnissen physikalisch gewinnen kann.
Ein Klimamodell ist doch abstrakt gesehen auch nichts weiter, als ein komplexes System dem durch die Sonne über die Zeit eine bestimmte Energiemenge zugeführt wird. Nehmen wir mal an wir haben zwei Klimamodelle in denen wir über das 20. Jahrhundert jeweils 1 K Temperaturanstieg beobachten. Das erste Klimamodell startet bei 13°C mit einer bestimmten Verteilung von Eis, Luft, Wasser und Land und einer durch die Mitteltemperatur beschriebenen Temperaturverteilung. Das zweite Klimamodell startet bei 16°C mit einer anderen Verteilung von Eis, Luft, Wasser und Land, sowie einer anderen durch die andere Mitteltemperatur beschriebenen Temperaturverteilung.
Meinem Beispiel nach bekommt man zusätzlich einen systematischen Bias aufgrund der unterschiedlichen Phasenübergänge. Meiner Meinung muss man, wenn man die Temperaturanstiege vergleichen oder mitteln will, mindestens über die Phasenübergänge ebenfalls buchführen. Das heißt die extensive Größe Energieänderung oder Enthalpieänderung betrachten. Man müßte so finde ich zusätzlich die Enthalpieänderung vergleichen, die die Erde im jeweiligen Modell erfahren hat. Auswerten kann man das ja sicherlich.
Deshalb nochmal meine Frage: Ist es physikalisch erlaubt ohne weitere Diskussion den Temperaturmittelwert über diese beiden Modelle zu bilden. Wenn ja, was ist die Begründung dass es erlaubt ist? Ich wüsste das gerne.
Ich schlage zum Weiterdiskutieren mal ein Argument vor, dass ich mir vorstellen könnte. Man könnte zusätzlich aus den Modellen den „total energy content change“ des Erdsystems bestimmen. Ist dieser bei den verschiedenen Modellen gleich innerhalb eines bestimmten Prozentsatzes, dann kann man ja vermutlich argumentieren, dass man den Mittelwert der Temperaturänderung innerhalb von Fehlergrenzen physikalisch sinnvoll bilden kann.
Mit freundlichen Grüßen
Günter Heß
@NB
Fragen Sie doch mal Herrn Rahmstorf, warum er mit seinen „Glättungen“ und „Filterungen“ so in der Kritik steht, bei den von Ihnen hochgelobten Statistikern, allerdings bei denen aus Kanada, ich bezweifele, daß Sie die in Ihre Lobreden über die Mathematik und der Statistik mit einbeziehen 🙂
Lieber Herr Limburg,
zu Ihrem Kommentar. Was Sie da bemerken, ist doch trivial. Sicher, aus diskreten Punktwerten auf ein kontiniuerliches Feld zu schließen, ist eine Wissenschaft für sich. Dieses Problem hat man immer, wenn man diskret vorliegende Daten in eine Karte umsetzt. Das Problem haben Sie schon, wenn Sie Messpunkte kühn mit dem Kurvenlineal verbinden.
Aber Sie werden doch wohl zugeben müssen, dass dieses Problem lösbar ist, solange es mit Sachverstand geschieht, oder diskutieren wir hier jetzt sogar auf der wissenschaftstheoretisch-philosophischer Ebene?
Der einzige Zweck der Mittelwert-Bildung (wie auch immer berechnet) ist doch generell, dass man Fehler (systematische oder zufällige Messfehler)unterdrückt und damit zwei Messreihen oder Theorie gegen Beobachtung besser vergleichen kann. Das gleiche gilt beim Vergleich von Simulationen und Beobachtungen beim Klima. Dass dabei lokal größere Abweichungen auftreten als bei den Mitteln, ist auch kein Geheimnis. Nichtdestotrotz nutzen die Modellierer die gesamte Feldverteilung der Parameter (soweit verfügbar), um Modell und Beobachtung zu vergleichen. Das „Tunen“ von Modelle auf möglichst gute Übereinstimmung der Mittelwerte mit der Beobachtung ist ein Mythos. Denn durch solche „Fassadenverschönerungen“ wird man kaum etwas über die Stärken und Schwächen des Modells lernen.
Lieber Herr Hess,
zunächst kann man von jeder physikalischen Größe einen räumlichen oder zeitlichen Mittelwert bilden. Problematisch wird es dann, wenn man diesem Mittelwert als Eingangsgrösse für Folgeprozesse hernimmt. Das darf man nicht. Denn dann kommt schnell Unsinn raus. Ihr Beispiel zeigt ja, dass es Unsinn ist, die Mitteltemperatur als Mass für eine globale Gesamtenthalpie zu nehmen. Aber nicht nur bei Phasenübergängen, sondern schon bei jeder nicht-linearen Beziehung wird das Ergebnis falsch, wenn man statt die lokalen Größen ihr räumliches Mittel verwendet.
Bei den Modellen tritt diese Schwierigkeit durch die Gitterweite auf. Aber hier hilft man sich ähnlich wie bei der Turbulenztheorie.
Der globale Temperatur-Mittelwert wird in den Modellen während des runs aber auch nicht benötigt, dort läuft alles in den Gitterpunkten bzw. Wellenvektoren ab, sondern erst bei der Ergebnis-Analyse berechnet.
@NB
Könnt Ihr alle nicht lesen oder wollt Ihr nicht ?
Ich rede nach wie vor von Globalstrahlung ?
Oder ist das etwas wo AGWisten einen großen Bogen drum machen und sich per „oh, verlesen, I’m so sorry“ raus reden ?
Erst Osram, der sich dumm stellt, dann Ihre dummer Frage, ob ich den Unterschied wüßte und jetzt der gequirlte Schmarrn ?
Ist Ihnen das nicht peinlich ??
Und trotzdem hier aufplustern wie „Herr Klima“ persönlich ?
Lieber Herr NB,
Danke für ihre Antwort und die netten Worte. Mir macht es auch Spaß mit Ihnen zu diskutieren. Es gibt immer Dinge in denen wir uns nicht so detailliert auskennen. Das ist gerade einem Naturwissenschaftler sehr bewusst. Deshalb diskutieren wir in den Naturwissenschaften ja, um etwas zu lernen. Hohn und Spott sollte niemand dafür ernten. Aber ich habe in den verschiedenen Foren festgestellt, dass jeder seinen Teil abbekommt. Aber wir lassen uns davon hoffentlich nicht abhalten.
Zu den Modellen und dem Mittelwert:
Ich bin schon davon ausgegangen, dass die Erhaltungssätze in den einzelnen Modellen berücksichtigt sind. So habe ich zu mindestens die Driftklausel in den „Control Runs“ verstanden.
Ich verstehe das für die Wettervorhersage, dass man den Mittelwert nimmt und nehmen darf, weil die Wettervorhersage eher lokal ist und die Zeitdauern kurz sind.
Meine Skepsis besteht für das gesamte Jahrhundert und den globalen Temperaturmittelwert aus verschiedenen Modellen, die über dieses Jahrhundert verschiedene Mittelwerte der Global-Temperatur aufweisen. Verdeutlichen möchte ich das mit dem folgenden Gedankenexperiment:
Nehmen wir zwei abgeschlossene Systeme, die jeweils Wasser enthalten. Wir können beiden Systemen per Funk eine bestimmte Energiemenge zuführen und die Temperaturänderung genau genug messen. Das erste System enthält Eis bei -2°C. Das zweite System enthält flüssiges Wasser bei 3°C. Die Energiemenge reicht aus, um Eis um 1 Kelvin zu erwärmen. Wir führen jetzt die Energie zu und messen die Temperaturänderung in beiden Systemen.
Die Aufgabe lautet nun die Temperaturänderung abzuschätzen, die diese Energiemenge für Wasser bei 1°C hervorruft. Mit dem Mittelwert der beiden Temperaturänderungen geht das nicht, da sich die beiden Systeme in unterschiedlichen Phasen befinden und somit verschiedene physikalische Eigenschaften haben.
Ich bin nun kein Klimaforscher und habe zu diesem Mittelwert nur gelesen was so im IPCC Bericht AR4 steht und in dem neuesten Lehrbuch von Prof. Latif „Klimawandel und Klimadynamik.
Mir fehlt aber trotzdem bisher eine physikalisch befriedigende Antwort auf die Frage:
Wie ist der „MultiModellMultiEnsemble“ Mittelwert physikalisch gerechtfertigt, wenn die einzelnen Modelle über das ganze Jahrhundert unterschiedliche Mitteltemperaturen aufweisen?
Wenn es mir jemand erklärt wäre ich dankbar.
Mit freundlichen Grüßen
Günter Heß
# Krishna
ich wüßte nicht, dass zum Thema „Gegenstrahlung“ im Afrika-Artikel noch Fragen offen wären bis auf die von Herr Schwarz. Da warte ich von ihm auf eine detailliertere Problembeschreibung.
@NB
Wollten Sie sich nicht stellvertretend zu der Globalstrahlung äußern, nachdem die Sparlampe da was durcheinander geschmissen hat und jetzt zappenduster in der Ecke steht ?
Ich warte gern, ich lasse Sie noch ein paar Tage recherchieren, was das Eine und was das Andere ist und warum da ein Zusammenhang mit den Wolken besteht und uU mit einer Temperatur.
Ansonsten waren das von Ihnen auch nur dicke Backen ?
Lieber Herr Hess,
obwohl ich Ihre Frage Ihnen nicht befriedigend beantworten werden kann, freue ich mich darüber.
Sie sind der Erste in den EIKE blogs, der – so scheint es mir – ergebnisoffen um die Sache diskutieren will und anscheinend nicht schon vorher weiss oder es darauf anlegt, dass die Diskussion ins Unsachliche eskalieren und fruchtlos verebben wird.
Ich gebe zu (mit der Erwartung von Hohn und Spott von EIKE-Sympathisanten), dass ich mich bei der Modellierung nicht so detailliert auskenne. Aber man kann schließlich nicht Alles wissen und muss es auch nicht. Denn es gibt ja auch andere vertrauenswürdige und schlaue Wissenschaftler in unserer Gesellschaft – dies ist jedenfalls meine Auffassung. Misstrauen (hier als Skeptizismus verkauft) kann zwar eine Tugend sein, Misstrauen aufgrund andersartiger Auffassungen ist jedoch auf Dauer selbstzerstörend.
Zu Ihren Fragen:
Ein bias zwischen den modellierten und den beobachteten Parametern (z.B. Temperatur) bedeutet nicht, dass Erhaltungssätze verletzt werden, sondern im Temperaturbeispiel dass Energie unrealistisch zwischen Atmosphäre und Deckschicht verdriftet. Die Modelle sind generell so aufgebaut, dass die Erhaltungssätze berücksichtigt sind (was einigen Aufwand in der Numerik bedeutet). Ich denke, dass inzwischen auch jedes Modell eine Drift kleiner 0,2 °C in 100 Jahren hat. Somit denke ich hat die Modell-Auswahl weniger mit „cherry picking“ als mit den begrenzten Rechenkapazitäten zu tun.
Zum „MultiModellMultiEnsemble Mean“: Es hat sich auch bei den Wettervorhersage-Modellen herausgestellt, dass man das statistische Ensemble, welches den Klimazustand repräsentiert, durch Zusammenfassung mehrerer verschiedener Modelle besser erfasst als durch Zusammenfassung mehrerer Ensemble-Durchläufe bei einem Modell. Die Formel, es gibt falsche und ein richtiges Modell, nach dem gesucht wird, ist so nicht richtig. Jedes Modell vereinfacht irgendwo und hat seine Stärken und Schwächen. Aber man kann berechtigt fragen, ob man international nicht DAS „Super-Modell“ schaffen und dafür alle Resourcen binden sollte als in viele nationale Einzelprojekte.
Krishna Gans sagt: „Konsens ist Politik, aber nicht Wissenschaft.“
Treffer. Im vorliegenden Fall (Klimalüge / CO2-Schwindel) handelt sich’s dazu um ein Riesengeschäft: Handel mit „Carbon-Futures“. In GB halten dazu 2/3 der Menschen den Klimahype für ein weiteres Mittel der aktuellen Regierung, mehr Abgaben und Steuern einzutreiben. Ist ja auch nicht so schwer. Für die Klimalügner wird’s immer enger. Wer heutzutage noch von „Erderwärmung“ spricht, ist uninformiert oder lügt; selbst bei der „Linken“ wachsen Zweifel. 😉
Zitat:
“ (…) die russische Zeitung Pravda titelte nun »Auf die Welt kommt eine neue Eiszeit zu«. Das war nicht etwa politisch gemeint. Und die Pravda bezieht sich mit ihrem Bericht auch keinesfalls auf die in vielen Teilen der Welt derzeit eher kühlen Temperaturen. Die Pravda weist auf russische Studien hin, nach denen der CO2-Gehalt der Atmosphäre seit Jahrmillionen immer dann hohe Konzentrationen erreicht, wenn eine neue Eiszeit bevorsteht. Und zwar ganz ohne industrielle Abgase. … “
http://english.pravda.ru/science/earth/106922-0/
http://info.kopp-verlag.de/news/zweifel-an-der-warmen-klimakatastrophe-eine-russische-studie-warnt-nun-vor-weltweit-sinkenden-te.html
Lieber Herr NB,
Sie schreiben:
„Jetzt müssen Sie nur noch statt die summary im AR4 im Hauptteil (Kap. 9 und insb. supplementary material zu Kap. 9) suchen, die die Ergebnisse der Einzelmodelle statistisch zu einem Gesamtbild zusammenfügen.“
Das habe ich ja getan. Statistisch verstehe ich, dass man den Mittelwert zwischen Modellen und Ensembles bildet. Aber was ist physikalisch.
Es wurden für die „anthropogenic + natural forcings „14 Modelle mit 58 Simulationen ausgewählt, aber für die „natural forcings“ 5 Modelle mit 19 Simulationen. Das verstehe ich zunächst nicht. Können sie mir das erklären, oder ist das „cherry picking“ in Bezug auf die physikalischen Modelle?
Das einzige Kriterium das ich gefunden habe ist der Energieerhaltungssatz, das heißt Drift kleiner 0.2°C über das Jahrhundert in „Control Runs“.
Methodisch gesehen habe ich außerdem eine Frage zu den „MultiModellMultiEnsemble Mean“ der gebildet wurde. Wenn die mittlere globale Temperatur der Modelle zwischen 13 und 17°C liegt heißt das doch, dass jedes Modell einen anderen Energiezustand der Erde repräsentiert. Das hat Auswirkungen für alle Prozesse, die von der Absoluttemperatur abhängigen, wie Eisbildung und Eisschmelze oder Wolkenbildung
Wieso darf man denn dann diesen Mittelwert bilden?
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Limburg,
Danke für ihre ausführliche Antwort und die Zitate. Ich habe aber meine quantitative Frage bewußt gestellt. Mir ist klar, dass Sie schwer zu beantworten ist, aber das sind quantitative Fragestellungen in der experimentellen Naturwissenschaft immer. Hypothesen aufzustellen und Prozesse oder statistische Auswertungen zu finden, die vermuten lassen dass es so sein könnte ist natürlich der erste Schritt. Aber die Naturwissenschaft darf dort nie stehenbleiben, sonst bleiben es Vermutungen. Die Naturwissenschaft muss danach streben quantitative Fragen zu beantworten, wenn auch mit Fehlerbalken. Bitte sehen Sie es mir nach, aber meine Ausbildung sagt, dass ich davon nicht ablassen kann. Das ist unabhängig davon, welche Meinung oder Vermutung ich selbst habe.
Ich habe das Paper von Prof. Gerlich gelesen und auch einige der anderen von Ihnen zitierten Autoren. Ich habe mir aber auch die Paper von Hansen, Schmidt und Rahmstorf und anderen angeschaut und mich entschieden meine Frage zu stellen. Eine Zahl mit Fehlerbalken und eine genaue Beschreibung der Methode, wie die Zahl gewonnen wurde finde ich eben notwendig, um eine Aussage wie „very likely“ überhaupt zu treffen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Osram,
Danke schön für die Zitate. Das Paper von Lean ist in der Tat schön klar und beschreibt die angewandte Methode sehr schön. Danke dafür. Als Ergebnis könnte man festhalten, dass etwa 0.6K auf anthropogene Einflüsse zurückzuführen sind. Die Methode habe ich wie folgt verstanden.
Lean et al. benutzen den berechneten anthropogenen Strahlenantrieb, den Enso Index, vulkanische Aerosole und „Solar Irridiance“, um empirisch die globale Mitteltemperatur des 20. Jahrhunderts zu rekonstruieren. Dabei benutzen sie für den anthropogenen Strahlenantrieb aus Klimamodellen berechnete Daten. Sie haben 4 Datensätze und benutzen 5 Fitkoeffizienten und 4 „time lags“, die frei gewählt wurden, wenn ich die Formulierung richtig interpretiert habe.
Der „time lag“ von 120 Monaten für den anthropogenen Strahlungsantrieb ergäbe mit den Wärmekapazitäten von Stephen Schwartz einen climate sensitivity parameter von ca. 0.7 K/(W/m2).
Allerdings bin ich mir nicht sicher, ob die
Knutti et al. Kritik gegenüber Schwartz nicht auch hier gilt, dass im Grunde nur eine Zeitkonstante für den anthropogenen Strahlungsantrieb benutzt wird und nicht mehrere wie es dem Klimasystem besser entspricht.
http://www.iac.ethz.ch/people/knuttir/papers/knutti08jgr.pdf
Damit ergäbe sich dann ja eine „climate sensitivity“ von 2.8°C. Insofern sind die Fits sicher konsistent mit dem GISS Modell E . Wenn ich das im Climate Explorer richtig überschlagen habe liefert das GISS Modell E 0.6°C für das 20. Jahrhundert und 2.8°C bis 2100.
Die anthropogenen Strahlungsantriebe sind, wenn ich das richtig verstehe von James Hansen mit dem GISS Modell E berechnet:
http://www.agu.org/pubs/crossref/2002/2001JD001143.shtml
Da ich kein Klimaforscher bin, bin ich mir noch nicht sicher, ob dieses Vorgehen in Bezug auf meine Zahl aus Lean et al. nicht ein Zirkelschluss ist. Aber da können vielleicht Sie mir aushelfen.
Ehrlich gesagt, wenn sie Originalliteratur kennen, die die Bestimmungsmethode aus den Modellen gut erklärt wäre ich dankbar.
Mit freundlichen Grüßen
Günter Heß
Lieber Blogger Osram,
EIKE-Blogs dienen sachdienlichen Kommentaren, Hinweisen auf Fehler in News-Beiträgen sowie der fachlichen Diskussion unter den News-Lesern selber. Bezug eines Blogs muss entweder der News-Beitrag selber oder aber ein einschlägiger vorangegangener Blog eines anderen Teilnehmers sein. Unnötig-penetrante Wiederholungen in Blogs des gleichen Autors ohne inhaltlichen Neuwert sind zu vermeiden. EIKE legt vor allem auf einen Umgangston wert, wie er den üblichen mitteleuropäischen Höflichkeitsformen entspricht. Erfahrungsgemäß macht nicht nur der „Ton die Musik“ sondern ein angemessener Ton trägt oft auch zur sachlichen Klärung bei.
Werden die hier geschilderten Bedingungen nicht eingehalten, werden die einschlägigen Blogs gelöscht und der Absender gleichzeitig aufgefordert, seinen Blog diesen EIKE-Kriterien anzupassen. Diese Löschung erfolgt nunmehr mit den Blogs von „Osram“.
Die EIKE-Redaktion
@NB
Interessant die Mutation von Osram zu NB ;.)
Auf die Frage von Herrn Hess:
noch eine Ergänzung zu den Tipps in #60 bzw. #57. Dies ist ein älteres paper. Aber trotzdem:
http://xweb.geos.ed.ac.uk/~suerigby/GEP/GEP%20precis%202/Climate%20change%20over%20last%201000%20years.pdf
@NB
Globalstrahlung = kurzwellig
Gegenstrahlung = langwellig
und weiter ?
Soll das jetzt sowas wie eine HÜ sein ?
Lieber Herr Heß,
Sie scheinen einer der wenigen in diesem EIKE-Forum zu sein, der sich skeptisch im eigentlichen, positiven Sinne des Wortes verhält. Ihr link zu den Einzel-Modellen http://climexp.knmi.nl/selectfield_co2.cgi ist schon mal jenseits dessen, was „Klimaskeptiker“ sonst bereit sind an Recherche zu investieren. Jetzt müssen Sie nur noch statt die summary im AR4 im Hauptteil (Kap. 9 und insb. supplementary material zu Kap. 9) suchen, die die Ergebnisse der Einzelmodelle statistisch zu einem Gesamtbild zusammenfügen.
@Osram
Ich habe Sie nach dem Zusammenhang „Globalstahlungserhöhung/ Bedeckung/ Temperatur gefragt, in einem anderen Thread, nicht hier, da haben Sie was von Gegenstrahlung gefaselt, wie schwer die zu messen sei. Deshalb eben hier noch mal die Frage ;.)
Warum eiern Sie da so drum rum ? Ist doch für eine mindestens 100 W Osram Leuchte wohl kein Problem ?
Was die Konsensfrage angheht: solange etwas unklar ist, wird geforscht, deswegen ist es OK, das die s.g. Klimaskeptiker keinen „Konsens“ haben. Die Vertreter der Apokalypse des CO2 „Treibhauses“ suchen nicht mehr, weil sie der irrigen Meinung sind, sie wüßten schon alles – ein Trugschluß und ein Luftschloß.
Unabhängig davon ist „Konsens“ nicht Wissenschaft, sondern Politik.
Lieber Herr NB #55,
ich werde natürlich weiter selbst recherchieren, aber ich hatte aus ihrem Auftreten in diesem Forum geschlossen dass Sie das wissen. Das hätte mir die Recherche erspart.
Die Modelle die ich im Climate Explorer finde: http://climexp.knmi.nl/selectfield_co2.cgi zeigen Anstiege zwischen -0.1K und 1.3K bei globalen Mitteltemperaturen von 12.8°C bis 17.2°C. Soll ich daraus jetzt 0.6K +/- 0.5K schließen, wenn ich die Ausreißer ignoriere? Ich hoffe eher nicht.
Ich würde es deshalb begrüßen, wenn mir jemand einen Fachartikel nennen würde, der das wissenschaftlich kompetent auswertet und den anthropogenen Anteil als Zahl mit Fehlerbalken ausweist, und die Methode veröffentlicht wie ausgewertet wurde.
Wenn Sie diese Zahl bzw. so einen Artikel nicht kennen verstehe ich aber überhaupt nicht wie Sie sich hier so herablassend über ihre Mitmenschen äußern. Siehe ihr Kommentar #13.
Wenn Sie diese Zahl und einen Artikel kennen, dann wäre ich verbunden wenn Sie mir dazu die Quelle nennen würden. Eine Quelle zu den Modellen, die sie erwähnen würde mir auch schon ein kleines Stück helfen.
IM IPCC „Summary for Policymakers“ steht zum Beispiel nur: „Most of the observed increase in global average temperatures since the mid-20th century is very likely due to the observed increase in anthropogenic greenhouse gas concentrations.”
Müsste man dann nicht diese Zahl mit Fehlerbalken kennen? Erfordert es nicht die wissenschaftliche Sorgfalt, dass diese Zahl mit Fehlerbalken so veröffentlicht ist, dass sich jeder ein Bild machen kann?
Ich denke schon.
Mit freundlichen Grüßen
Günter Heß
Hess, um es Ihnen noch etwas leichter zu machen:
http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter9.pdf
Das enstprechende Kapitel im IPCC Bericht. Darin werden eigentlich alle nennenswerten Studien zu diesem Thema (die bis 2006 erschienen) erwähnt und kurz behandelt.
Wenn Sie tiefer einsteigen wollen, müssen Sie schon die Primärliteratur lesen.
Aktuell und gut verständlich ist dieses Paper von Lean und Rind, indem versucht wird die Erwärmung seit 1889 durch relativ einfache Methoden den verschiedenen Faktoren zuzuordnen:
http://pubs.giss.nasa.gov/docs/2008/2008_Lean_Rind.pdf
Die 0,4-0,5K Anteil von Solar entspringt Limburgs Fantasie. Tatsächlich dürften es so um 10% Anteil sein bzw. < 10% Dazu gibts zig Paper, siehe auch IPCC Report oder das Lean und Rind Paper.
Lieber Herr Kowatsch,
„Deshalb gilt meine durch Versuchsreihen bestätigte Aussage. C02 hat im ppm und im Promillebereich keinerlei Treibhauswirkung. “
Beschreiben Sie mir mal Ihren Versuchsaufbau, was haben Sie gemessen und was sollte laut Treibhaustheorie dabei herauskommen (Messgrößen und deren gemessene/theoretsich erwarteten Werte)
Ihre in ihrem mir unbekannten „Scriptum“ genannten Wege werden in Kohlenstoffzyklus-Modellen berücksichtigt. Daher weiß man auch, dass es einige Jahrhunderte dauert, bis sich nach der anthropogenen „CO2-Injektion“ in die Atmosphäre das Klima inklusive die CO2-Konzentration in der Atmosphäre wieder eingependelt hat.
Ich hoffe, Ihr Scriptum gibt über diesen Zeithorizont Auskunft.
Lieber Herr Hess,
wenn Sie den Ar4 kennen, da sind doch Modellergebnisse mit/ohne CO2 im Vergleich drin. Die moderneren Modelle berücksichtigen meist viele zukünftige Klimaeinflüsse gleichzeitig. Fehlt Ihnen nun ein Modell, was nur das CO2 berücksichtigt? Da recherchieren Sie mal in den Modellrechnungen aus den letzten 40 Jahren. Da wurde so was noch einfacher gemacht und nur ein Einfluß berücksichtigt.
@Osram, der sich nicht erleuchten lies…..
Was machen die kleinen Sputniks da oben ? Treibhaus messen ? Beleg, Link irgendwas handfestes ?
Ich warte immer noch auf eine Antwort zur Globgalstrahlung, die Sie, warum auch immer mit Gegenstrahlung verwechseln, damit alles Ahnungslosigkeit ausstrahlen, was Ihnen möglich ist, bei den Pseudo – für Osram ein Grund für ’ne grundsolide Pleite, weil Osram dunkel wie die Nacht bleibt.
Es gibt wie Sie sehen, unter den AGW-Skeptikern keinen Konsens, und das ist gut so, das spornt an, weiter zu forschen, statt sich im Konsens-Dedöns der Klima-Apokalyptier in einem eingebildeten „wissenschaftichen Konsens“ zu suhlen. Konsens ist Politik, aber nicht Wissenschaft.
Also, lassen Sie ein Osram-würdiges Licht aufgehen.
Lieber Herr Limburg,
erstmals Danke für ihre detaillierte Antwort. Eine Zahl haben Sie leider auch nicht genannt. Ich verstehe sie aber so, dass Sie vermuten, dass 0.4K -0.5 K vom Einfluss der Sonne herrühren. 0.3 K erzeugt die Messmethode als zeitlich variabler Bias.
Sie schreiben ausserdem:
„Das sieht indirekt auch das IPCC so. Prof. Mitchell Leitautor und Chef des Metoffice sagt dazu: Mitchell et al. (2007)51
“It is only possible to attribute 20th Century warming to human interference using numerical models of the climate system.”
Können Sie das Paper von Mitchell bitte genauer zitieren. Ich habe es bisher noch nicht gefunden. Außerdem würde ich gerne wissen, welche Anteil am Temperaturanstieg die Modelle ausrechnen und wie da die Fehlerbalken für das 20 Jahrhundert sind.
Mit freundlichen Grüßen
Günter Heß
Schrecklich, wie die verkappten Atomkraft-Propagandisten (Osram!) auf dem CO2-Argument beharren und welcher rhetorischer Mittel sie sich dabei bedienen. Tarnen und Tricksen ist die Devise.
Wer einmal den AKW-Jünger Ulrich Waas mit seinem Kernkraft-Werbebuch gelesen hat – es erschien schon 1978 in der Erstauflage – weiß doch, wo das CO2-Argument inkl. AGW herkommt, und warum es in die Welt gebracht wurde.
Die Quellenanhaben dieses Buches „Kernenergie – ein Votum für Vernunft“ führen zum Atomkraftpapst Häfele, und seiner Theorie vom ach so gefährlichen CO2, die auch bis in jüngste Zeit nix Neues hervorgebarcht hat. Alle aktuellen Treibhaus-Argumente stammen von damals: Böses CO2! Das – ach nee – ausgerechnet die Energiekonkurrenten in so schädlicher Konzentration ausstoßen.
Alles schon vergessen?
Fazit: AGW – Atommarketing.
Konrad Fischer
Klimaketzer
Lieber Herr Osram #50,
wenn Sie so genau über den Treibhauseffekt Bescheid wissen und sich dabei auch über ihre Mitmenschen lustig machen, vielleicht können Sie ja ganz konkret meine Frage aus #30 beantworten.
Mit freundlichen Grüßen
Günter Heß
#43 antwortet:“Unglaublich Herr Kowatsch was für einen xxxxxxxx Sie reden. Nach dieser Logik könnte man die Astronomie oder vielleicht als noch besseres beispiel die Planetologie sofort einstellen. Ebenfalls sollten alle Geophysiker sofort ihre Geräte abschalten. Auch sollte aus allen Geologie Büchern sofort gestrichen werden, dass der Erdkern hauptsächlich aus Eisen besteht, schließlich war noch keiner unten und hats selbst nachgemessen. Jetzt überlegen Sie sich mal, warum es trotzdem Planetologe und trotzdem Geophysiker gibt.“
Nun zu Ihnen, Herr Osram, Sie geben hier zu, dass die Geophphysiker Geräte haben und auch einsetzen zur Überprüfung ihrer eigenen Theorie, genauso überprüfen die Astronomen und andere Wissenschaftler ihre Theorien durch Messungen und Versuchsreihen.
Genau das habe ich von den Treibhäuslern gefordert bzw danach gefragt, wo ihre Versuchsreihen sind, die beweisen, dass C02 im ppm-Bereich ein Treibhausgas ist. Bitte senden Sie mir Bilder von ihen Geräten zu und genaue Ablaufbeschreibungen des Versuches. Oder machen Sie mal die Augen zu, und was sehen Sie. Genau, es gibt keine. Sie haben weder Geräte und schon gar keine Versuchsbeweise.
Deshalb gilt meine durch Versuchsreihen bestätigte Aussage. C02 hat im ppm und im Promillebereich keinerlei Treibhauswirkung. Die Dosis macht das Gift. Die C02 Treibhauswirkung existiert nur im Computer des PIK Potsdam.
Ich möchte nun den anderen Lesern, die in der Lage sind, einfachen klaren Sätzen zu folgen und nun diesen Wortwechsel auf niederem Niveau schon zum dritten Male mitbekommen, noch mitteilen, dass meine in #37 konkret gestellten Fragen, von allen vier Umweltorganisationen, von Bild der Wissenschaft und vom Umweltbundesamt nicht beantwortet werden konnten. Wenigstens hat der DBV zugegeben, dass es sich beim Treibhauseffekt um eine Theorie handelt, die aber weltweit anerkannt sei. Versuchsbeweise gebe es keine. Alle anderen sind ausgewichen in das xxxxxX-Zentrums ihres Gehirns, woraus sie mir dann freundliche Grüße am Schluß ihres nichtsagenden Schreibens übermittelten. Bekannte von mir haben gar keine Antworten erhalten, weil sie keine Mitgliedsnummern bzw. Abonnementnr. angegeben haben.
Wir Klimarealisten müssen also argumentieren. Versuche haben ergeben: Im ppm-Bereich und im Promillebereich ist C02 überhaupt kein Treibhausgas, sondern ein lebensnotwendiger Stoff zum Erhalt des Lebens auf der Erde.
zu #34 Osram
Lieber Osram, sie brauchen in ihrem pubertären Alter keine Angst vor der Zukunft zu haben, dass 3%C02 übrig bleiben, nur weil es vom Menschen kommt und sich anhäuft, auch dieses Kohlendioxid wird wieder abgebaut. Sie tun so als gehöre der Mensch nicht auf die Erde
Ich will im folgenden fünf Wege des Abbaus beschreiben: In meinem Scriptum sind noch mehrere genannt. Wenn Sie mir Ihre Adresse hinterlassen, sende ich Ihnen gerne ein Exemplar zu.
Weg1: Für die Pflanzen ist Kohlendioxid lebensnotwendig. Sie nehmen es bei der Fotosynthese über die Blätter auf und stellen in der Pflanze Zucker, Zellulose und wieder Sauerstoff her. Mehr C02 Ausstoß führt zum schnelleren Wachstum der Pflanzen und damit wieder zum schnelleren Abbau von C02 in der Atmosphäre. C02 ist ein lebensnotwendiges Gas, genauso wichtig wie Sauerstoff. Ohne C02 gäbe es keine Pflanzen auf der Erde und damit auch keine Tiere, die Erde wäre kahl wie der Mond.
In Gewächshäusern begasen Gärtner ihre Jungpflanzen mit C02, damit sie schneller wachsen.
Die Schöpfung hat alles wohl bedacht: Wir erzeugen C02, wir atmen es aus und unser Abfallprodukt C02 brauchen die Pflanzen wiederum zum Leben. Im Gegensatz dazu erzeugen sie uns den Sauerstoff. Mit C02 zerstören wir nicht die Schöpfung, sondern wir erhalten sie aufrecht.
Weg2: Was die Pflanzen nicht aufnehmen, nehmen die Wolken auf, bzw der Wasserdampf der Atmosphäre: C02 ist in kaltem Wasser sehr gut wasserlöslich. In 1000m Höhe umherziehende Wolken hinterlassen hinter sich eine C02-freie Luft. Die Wolken fallen als Regen nieder und düngen wiederum die Pflanzen mit C02. Ein kurzfristiger vom Menschen über die Verbrennung verursachter C02-Anstieg in der Luft wird somit ausgewaschen, landet bei den Pflanzen oder über die Flüsse im Meer.
Weg3: Was immer noch übrig ist, dringt über die Spalten ins Erdreich ein, lagert sich in Höhlen und erzeugt mit dem Tiefenwasser sauren Sprudel.
Weg4: C02 braucht man zum Abbinden von Beton: Täglich werden mehrere 1000 Hektar auf der Welt betoniert. Das Festwerden von Flüssigbeton, den man auch Mörtel nennt, ist eine chemische Reaktion bei der C02 den Mörtel aushärtet. Alle Gebäude, alle Städte sind „ewige“ Deponien für Kohlendioxid.
Weg5: Der größte Teil des C02 geht über den Ozeanen nieder und löst sich in Wasser. Dort wird C02 allmählich kalkhaltige Gebilde und Korallengebirge unter Wasser aufbauen.
Wir erleben in neuerer Zeit eine C02-Umspeicherung. Was in früheren Zeit in Kohle und Erdöl gespeichert war, wird zukünftig vermehrt als Karbonat gespeichert werden.
Wichtig ist nun: Auf- und Abbau von C02 in der Atmosphäre steht immer in einem chemischem Gleichgewicht zueinander. Wird mehr C02 freigesetzt, dann erfolgen die Abbaureaktionen schneller, so dass sich der Gesamtgehalt an C02 in der Atmosphäre bei gleichbleibender Temperatur kaum verändert.
Nur die Sonne kann durch Wärmezufuhr in diesen Kreislauf eingreifen und die Gleichgewichte von Ausgasung und Abbau leicht verschieben.
Der C02-gehalt steigt nur in den Computern des PIk Potsdam.
Im Bereich bis 10 000 ppm ist C02 überhaupt kein Treibhausgas. Das beweisen nicht nur Versuche, sondern auch Inversionswetterlagen. Bei Inversion reichert sich nämlich nicht nur kalte Luft in den Tälern, sondern von Tag zu Tag mehr C02. Wäre C02 treibhauswirksam, dann dürfte es keine Inversionswetterlagen geben. Also Beweis erbracht durch Versuch und durch Realität.
So und jetzt mal versuchen, mit beiden Gehirnhälften zu denken und abzuwägen, damit ihre Emotionen nicht gleich wieder im xxxx des eigenen Gehirns enden.
Josef Kowatsch
„Paradigmenwechsel beim IPCC“ heißt die Fragestellung des Artikels.
Bei Latif vielleicht.
Bei wenigstens einem Jünger des AGW, untertrieben so genannt, ist das definitiv nicht der Fall, im Gegenteil, je mehr das Kartenhaus AGW in sich zusammenstürzt, wie auch durch solche Aussagen wie die von Latif untermauert, um so agressiver wird dieser Vennecke, der sich bei Readers Edition auch schon unter dem Pseudo Klusmann „ruhmreich“ verewigt hat.
Wenn Leute wie diese irgendwann mal politisch was zu sagen haben, dann wird es übelst, es ist unbegreiflich, was diese Klimareligion für eine Brut hervorgebracht hat.
Insbesondere, ohne das sie namentlich erwähnt werden, sind die Herren von EIKE hier gemeint, nicht nur sondern auch.
Einige Beispiele:
———————
„Die meisten AGW-Negierer tun das nicht, sie verlassen sich lieber auf die zusammengeschusterten Web-Auftritte Gleichgesinnter und merken dabei nicht, wie sie verschaukelt werden. Da etliche von ihnen eine kriminelle Neigung haben und das für ganz normal halten, sind sie auch sehr schnell bereit, der Wissenschaft ebenfalls betrügerische Absichten zu unterstellen. Weil sie selbst ständig mit Lug und Trug arbeiten und auch das für ganz normal halten, gehen sie davon aus, dass die Wissenschaft das gleiche tut. Solchen Leuten ist allerdings nicht mehr zu helfen, da sie zu einer ehrliche Diskussion nicht bereit sind “
———————
„Bei den AGW-Negierern gibt es im Wesentlichen drei Gründe:
1. ein allgemeines, aber nur selten bewusstes Unbehagen mit den Ergebnissen der Wissenschaft
2. die Angst, dass das Akzeptieren der Ergebnisse zu große und vor allem unbequeme Änderungen im eigenen Lebensstil zur Folge haben könnte
3. sobald sie ein gewisse Prominenz erreicht haben, spielen auch finanzielle Gründe eine Rolle.
4. allgemeine Demenz
[..]
ad 3. Singer, Ball, Michaels, Weber, Maxeiner, Miersch, Beck, Lüdecke, u. v. a.
ad 4. “Klimamanifest von Heiligenroth” – der Rentnerklub “
———————
Ab hier:
http://tinyurl.com/yb4ptsu
Und „fröhlich“weiter gehts,
startend hier:
http://tinyurl.com/y97nmfj
——————–
„Allmählich sollten Sie einsehen, dass Sie genau der gleichen psychischen Fehlsteuerung unterliegen, die alle Verschwörungstheoretiker eint, nämlich der Schaffung einer unüberbrückbaren Kluft zur Realität.
Es kommt ja schließlich nicht von ungefähr, dass man einen der Ihren (”Dr.” Wolfgang Thüne) unwidersprochen als “Geisterfahrer der Wissenschaft” (Leuschner) titulieren konnte.
Wenn Sie ernst genommen werden wollen, dann sollten Sie sich endlich von diesen Geisterfahrern, zu denen auch E. G. Beck, Singer, Ball, Gerlich, Weber u. v. a. gehören, distanzieren.“
——————-
„Um zu wissen, dass Thüne, Beck und Konsorten Spinner und Rosstäuscher sind, dazu brauche ich nicht unbedingt Herrn Leuschner, zumal sein Verriss von Thüne schon ein paar Jahre alt ist (hat sich aber nichts an der Berechtigung geändert, Thüne spinnt nach wie vor)“
——————-
„Die AGW-Negierer sind ein Haufen von Wirrköpfen, nicht anders als die vielen anderen Verschwörungstheoretiker auch. Ihre Lügen und Frechheiten richten sich wie bei allen anderen Verschwörungstheoretiker gegen die Erkenntnisse der seriösen Wissenschaft und stellen somit eine permanente Beleidigung menschlicher Intelligenz dar.“
——————-
„Und nur weil Todesstrafe und Kreationismus in Europa eine eher untergeordnete Rolle spielen, fallen hier die AGW-Negierer mit solchen Extrempositionen weniger auf. Politisch gesehen zählen aber auch hierzulande eher zu den Geisterfahrern aus dem rechten Spektrum. Denn ihre Unfähigkeit, mit der Realität klar zu kommen, wirkt sich natürlich auch in der politischen Positionierung aus. “
——————-
„Singer und seine Komplizen befinden sich in bestem Einvernehmen mit den ultrarechten Republikanern im Dunstkreis eines gewissen Senators Imhofe.
In Deutschland fehlt eine entsprechende Ultrarechts-konservative Gruppierung. Mag sein, dass aus diesem Grunde eine ganze Reihe von AGW-Negierern (Beck, Jaworowski, Böttiger, u. a.) mit den Polit-Chaoten Lyndon LaRouche (EAP, Büso, Fusion-Magazin) paktieren. Jedenfalls sind die Verbindungen unübersehbar. “
——————-
„Darin unterscheiden sie sich von den AGW-Negierern, die trotz überwältigender Gegenbeweise an ihren krankhaften Vorstellungen festhalten. Insofern rechnet man die katholische Kirche nicht zu den Verschwörungstheoretikern, die AGW-Negierer, die Kreationisten, die Flat-Earther, die CIA-9/11-Apostel, usw., schon.“
[..]
„Die AGW-Negierer -sofern sie überhaupt zurechnungsfähig sind – haben diese Freiheit nicht, weil sie den Auftrag haben, das Problem Klima herunter zu spielen.“
——————-
„Wer ist schlimmer, die Holocaust-Leugner oder die AGW-Negierer?
In diesem Blog wird der Versuch unternommen, diese Frage zu beantworten:“
——————-
„Tatsache ist aber, dass die AGW-Negierer den Versuch unternehmen, eine notwendige Entwicklung aus vordergründigen Motiven zu verzögern. Sofern sie dies wider besseres Wissen tun – und das trifft für eine ganze Reihe von ihnen zu – tragen sie in der Tat die Verantwortung für ihr Handeln, der Rest sind nur nützliche Idioten der Energieindustrie.
Würden die Menschen massenhaft auf diese perfide Clique hereinfallen, so müsste man sich ernsthaft Gedanken über geeignete Gegenmaßnahmen machen, die m. E. aber hauptsächlich in einer verbesserten Information der Bevölkerung bestehen sollten. “
——————-
„Insofern reicht es völlig aus, sie durch Verweis auf die Fakten immer wieder ad absurdum zu führen und ihnen ihre moralische Verwerflichkeit vor Augen zu führen.
Wer wie die AGW-Negierer ständig mit Lug und Trug arbeitet und die Internet-Community für dumm verkaufen will, kämpft ohnehin vor vornherein auf verlorenem Posten. “
========================
Soweit so schlecht,
Ich habe das und wollte das hier auch als Dokumentation hinterlegt haben, damit es nicht verloren geht, zum Einen, zum Anderen, um einigen der hier anwesenden „Hardliner“ klar zu machen, wohin die Reise gehen soll, wenn Schellnhuber und seine zur großen Transformation umgenannte „Kuturrevolution“ mal greift und die angestrebte Eine-Welt Regierung aktiv wird. Solch Typen wie der Vennecke sind die Speerspitze der Grün-Sozialen Ökodiktatur.
DDR, SU und DE vor 1945 lassen grüßen, so hat man dort Regimekritiker und Andersdenkende auch schon verfolgt.
Wohlgemerkt, das sind alles Zitate des Pseudo „Vennecke“.
Daß unter Klusmann geschriebene Texte Gauner Gangster, Lügner und Betrüger auftauchen, ist angesichts der Entwicklung diese Herrn schon kaum noch eine Erwähnung wert wie mir scheint.
After three decades of continual increase, the mean Earth temperature has been decreasing steadily since 2002, as precise satellite measurements show. As a result, the steady rise in sea level has stopped since 2005.
World climate is a regular quasi-periodic phenomenon [driven by solar activity with a period of 70 – 80 years (Gleissberg cycle)] that lags the mean Earth rotational velocity by 6 years. Because of this regularity, it can be stated with absolute certainty that the mean Earth temperature will continue to decrease until 2040.
The Close Correlation between Earth’s Surface Temperature and its Rotational Velocity as well as the Close Correlation between the Planetary Orbital Periods and the Periods of the Solar Cycles Prove that Climate Changes are Driven by Galactic Gravitational Waves
1. There exists an extremely close correlation between the changes in the mean global temperature and the small changes in the rotational velocity of the Earth (see Fig. 2.2 of http://www.fao.org/DOCREP/005/Y2787E/y2787e03.htm), which has been ignored by the mainstream climatologists, and leaves little room for a human influence on climate. This close correlation results from the action of galactic vacuum density waves on the Sun and on the Earth (see http://www.icecap.us/images/uploads/Lobert_on_CO2.pdf ).
2. In the post of March 24, 2009 in Google „Gerhard, pakteahouse“ it is shown that the orbital periods of the planets of the Solar System provide further evidence for the existence of super-Einsteinian gravitational waves and of their action on all celestial bodies of the Solar System. All periods are very close to integer fractions and integer multiples of the periods of the Hale (22.14 years) and the Gleissberg (78 – 84 years) solar cycles.
@Osram #26
Zitat von Ihnen:
„Ihren ersten Beitrag verstehe ich nicht. Was soll ich? Die Gegenstrahlung zu messen ist eine sehr komplizierte Angelegneheit, denn der Trend unter sehr viel Rauschen versteckt ist, man muss schon höllisch aufpassen. Von Rolf Philipona und seinen Kollegen sind dazu einige Paper erschienen, einfach mal danach suchen.“
Betrifft wohl mein Posting # 17
Wie kommen Sie darauf, daß ich von der Gegenstrahlung spreche ?
Ich habe ganz explizit von der Globalstrahlung gesprochen, kennen Sie etwa den Unterschied nicht, und blasen sich hier dermaßen auf, oder ist es Ihrer Leseunfähigkeit zu verdanken, die ein derartiges Aufblasen Ihrerseits auch nicht rechtfertigen würde ?
Sehr geehrter Herr Osram,
bleibt nicht auch als Unsicherheit das „Cloud Radiative Forcing“? Die Modell simulieren doch eigentlich Wolkenbedeckungsunterschiede zwischen 57% und 79%. (IPCC AR table 2.6). Das sind ja auch so ca. 1-2K.
Mit freundlichen Grüßen
Günter Heß
Liebe Comments-Leser,
kennt jemand denk Wortlaut der Latif-Rede?
Alle tun so als ob er die bisherigen Ergebnisse des IPPC rückgängig machen würde. Das ist keinesfalls so.
Die Meldung ist übrigens schon 1 Jahr alt (http://www.focus.de/wissen/wissenschaft/klima/forschung-und-technik-die-erderwaermung-macht-pause_aid_311100.html )
Aus dem Interview geht hervor, dass sich an den langjährigen Vorhersagen nichts ändert.
Gruß Ged
Lieber Herr NB,
Sie schreiben:
„Wieso glauben sie, dass diese Bedingungen „gesichertes Wissen“ sichern würden und was wäre, wenn es keine Aussage unter diesen Randbedingungen gibt? Was ist also, wenn die Wissenschaft eine Antwort liefert, die Sie nicht verstehen können, die aber innerwissenschaftlich als Positivindikation bewertet wird?“
Meine Bedingungen:
„Als gesichertes Wissen, würde ich experimentelle Messergebnisse zählen, oder eindeutige Zuordnungen aus Computermodellen, die in den „Control Runs“ eine Drift kleiner als 0.2 K über das 20. Jahrhundert zeigen“
sind die Bedingungen, die das IPCC benutzt hat, um die 14 Computermodelle auszuwählen, die die globale Mitteltemperatur 20. Jahrhundert mit „anthropogenic forcing“ simuliert haben. Ich dachte, das sei eine gute und innerwissenschaftlich akzeptierte Wahl.
Weiterhin dachte ich, dabei wäre der Temperaturbeitrag des CO2 in Kelvin herausgekommen. Ich habe aber diese genaue Zahl mit Fehlerbalken noch nicht gelesen. Ich wüßte sie halt gerne Schwarz auf Weiß und in „peer-reviewed literature“.
Mit freundlichen Grüßen
Günter Heß
P.S. Da ich Naturwissenschaftler bin würde ich eine innerwissenschaftliche Antwort schon verstehen glaube ich, da machen sie sich mal keine Sorgen. Außerdem möchte ich ja nur eine Zahl in Kelvin und das Paper das zeigt, wie die Zahl bestimmt wurde. Ich lasse es mir zur Sicherheit dann von einem befreundeten Klimatologen erklären, den ich schon öfter in Chemie, Mathematik und Physik beraten habe. Er hat übrigens diese Frage noch nicht beantwortet
Daß Ihr Euch alle über das CO2 so aufgregt, Arrhenius hat sich eh geirrt ;.)
„It is widely believed that Svante Arrhenius correctly predicted
the rise in temperature. Perhaps you are unaware that he did this
based on seriously flawed spectroscopic data.“
http://members.casema.nl/errenwijlens/co2/arrhrev.htm
@NB
„Und zweitens weiss man eh aus dem Physikunterricht, dass die Physikexperimente meistens nicht richtig klappten.“
ein schöner Satz:
Chemie ist das, was knallt und stinkt, Physik ist das, was nie gelingt.
Erinnert mich an Rahmstorfs uä Klimaexperimente in den Modellen.
@NB,#36
Genau das meine ich Herr NB, was Sie im letzten Satz mir unterstellen, vielleicht war ich bisher zu ungeschickt in meinen Versuchsreihen. Das können erfahrene Praktiker nicht ausschließen. Deshalb fordere ich nun auch Sie auf, wie zuvor Osram, mir den geschickten Wissenschaftler oder ein Institut zu nennen, bei denen so ein Versuch je gelungen ist. Am besten Sie geben hier eine genaue Ablaufbeschreibung, damit jedermann den Versuch durchführen und nachprüfen kann. Ein wichtiger Grundsatz der Wissenschaft ist, dass Gesetze überall überprüfbar und nachvollziehbar sein müssen mit denselben Ergebnissen. Aber so einen Experimentator haben auch Sie nicht genannt, anscheinend ist es eben noch niemandem gelungen, den Treibhauseffekt von C02 in diesem geringen ppm Bereich zu zeigen. Solange dieser Nachweis nicht gelingt, fehlt der Theorie schlichtweg der Beweis und es gilt mein Postulat, das ich auch in meinen Scripten so vertrete: C02 ist bei diesen geringen Mengen im ppm-Bereich kein Treibhausgas. Erst die Dosis macht das Gift.
Deshalb kann das anthropogene C02, eh nur 3% vom Gesamtausstoß, auch nicht zur Klimaerwärumung beigetragen haben. Es wird ebenso in die Kreisläufe des Auf-und Abbaus eingebunden wie die restlichen 97%.
Die Erwärmung seit der kleinen Eiszeit kommt von der Sonne. Gott sei Dank wurde es wärmer, denn diese kleine Eiszeit war die Klimakatastrophe für die damaligen Menschen.