Mojib Latif ist Leiter des Leibniz-Instituts für Meereswissenschaften der Universität Kiel, Spezialist für Computer-Klimamodelle und renommierter IPCC-Autor. Was steckt hinter seiner Aussage
http://www.newscientist.com/article/dn17742-worlds-climate-could-cool-first-warm-later.html
die einem Paradigmenwechsel der IPCC-Klimawissenschaft gleichkommt?
Tatsächlich messen Meteorologen schon seit dem Jahre 2000 eine Abnahme der Erdtemperatur, ohne dass dies öffentliche Resonanz erfuhr. Allerdings dürften aufmerksamen Zeitgenossen die letzten harten Winter und das Ausbleiben der üblichen Klagen von Skiliftbetreibern über zu wenig Schnee und auch die allmähliche Zunahme der arktischen Eisflächen
http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic
nicht entgangen sein. Die Erde kühlt sich ab, obwohl die Konzentration von CO2 weiter zunimmt – von 0,030% auf 0,038%, also um 0,008% Volumenanteil der Luft während der letzten 100 Jahre. Die Wissenschaft ist sich einig, dass CO2 als Treibhausgas erwärmend wirkt. Allerdings ist die Stärke dieses Effekts unsicher. Aus dem Statement von M. Latif ergibt sich daher die Frage nach der Ursache der jüngsten Abkühlung. Die Klimaforschung bietet leider nur Vermutungen an. Die weitaus wahrscheinlichste betrifft unser Zentralgestirn, die Sonne.
Der auf die Erde treffende Energiefluss der Sonne ist zwar praktisch konstant und kommt daher als Ursache für maßgebende Änderungen von Erdtemperaturen in Klimazeiträumen nicht in Frage. Unsere Sonne ist indes alles andere als ruhig. Über viele Millionen Kilometer ins All hinausschießende Sonnenfackeln, stark variierende Sonnenfleckenzahlen und dramatische Änderungen des Sonnenmagnetfelds sind ihre Kennzeichen. Besonders heftige Sonnen-Störungen sind wegen ihrer gefährlichen Auswirkungen, wie Unterbrechungen des Funkverkehrs, Strahlungsgefährdung von Astronauten in Raumstationen, bis hin zum Zusammenbrechen landesweiter Hochspannungsnetze, gefürchtet. Die Dynamik der Sonne hinterlässt ferner Isotopen-Spuren in geologischen Sedimenten, die analysiert und mit den zeitgleichen historischen Erdtemperaturen verglichen werden können. Die Klimaforscher Nir J. Shaviv und Ján Veizer haben aus solchen Analysen einen nahezu perfekten Gleichklang zwischen Sonnenaktivität und Erdtemperaturen über viele hundert Millionen Jahre Erdgeschichte nachgewiesen (s. pdf Shaviv_Veizer und Shaviv). Ab Beginn des 17. Jahrhunderts begann dann mit Hilfe des Fernrohrs die systematische Zählung von Sonnenflecken. Ihre Anzahl entspricht der Stärke des Sonnenmagnetfeldes. Die „kleine Eiszeit“ am Ende des 17. Jahrhunderts, die uns in vielen Winterbildern holländischer Maler, etwa der berühmten „Heimkehr der Jäger“ von Pieter Breughel vor Augen geführt wird, ging mit einem fast völligen Verschwinden der Sonnenflecken einher. Der gute Gleichklang (Korrelation) von Sonnenaktivität und Erdtemperatur ist inzwischen lückenlos bis zum heutigen Tage gesichert (s. pdf Svensmark, Borchert und Malberg, ferner http://www.eike-klima-energie.eu/news-anzeige/klima-sonnenflecken-und-kosmische-strahlung/ und
http://www.eike-klima-energie.eu/news-anzeige/klima-sonnenflecken-und-kosmische-strahlung-teil-ii/).
Forscher wie Nicola Scafetta und Bruce J. West (s. pdf Scafetta und Scafetta_West) wenden dazu ganz neuartige statistische Verfahren an und bestätigen mit ihnen die Gültigkeit dieses Gleichklangs auch für die wenigen Zeitabschnitte, in denen die klassische mathematische Korrelation keine guten Ergebnisse ausweist.
Seit ihrem Maximum im Jahre 2001 sind die Sonnenflecken in dramatischer Abweichung von den bekannten Zyklen inzwischen komplett verschwunden. Wir werden somit aktuell wieder mit dem gleichen Phänomen konfrontiert, wie zur kleinen Eiszeit des 17. Jahrhunderts. Analysen der Sonnenforschung zeigen zudem, dass dieser beunruhigende Zustand vermutlich noch Jahrzehnte anhalten wird (s. pdf livingston_penn). Zukünftig deutlich kälteres Klima ist daher wahrscheinlich, im ungünstigsten Fall werden wieder extreme Verhältnisse auftreten.
So überzeugend der statistische Nachweis des Sonneneinflusses auf unser Klima auch ist, darf nicht vergessen werden, dass noch weitere Mechanismen die Klimaentwicklung bestimmen. Vom Vulkanismus, über die bis heute nicht voll verstandenen Oszillationen eines El Nino und der jedem Meteorologen geläufigen NAO, bis hin zur Klimawirksamkeit von Aerosolen und Treibhausgasen reicht die Anzahl der „üblichen Verdächtigen“. Zum statistisch gesicherten Gleichlauf von Sonnendynamik und Klima fehlt außerdem noch eine durch Messungen belegte physikalische Erklärung. Bis heute gibt es hierzu nur Hypothesen. Die wahrscheinlichste basiert auf einem zuerst von den Forschern Eigil Friis-Christensen, Knud Lassen und Henrik Svensmark vorgeschlagenen Mechanismus: Das variierende Sonnenmagnetfeld moduliert die Anzahl der auf die Erde treffenden elektrisch geladenen Partikel der kosmischen Strahlung. Diese Partikel sind an der Keimbildung von abkühlenden Wolken beteiligt, so dass über eine längere Wirkungskette das Sonnenmagnetfeld die Erdtemperatur steuert (s. pdf Svensmark). Es ist aber noch nicht gelungen, diese Hypothese zweifelsfrei zu bestätigen. Die Natur ist offenbar viel komplexer, als vermutet. Der Gleichklang Sonne-Klima ist bis heute nur bestens statistisch gesichert.
Die Aussage von M. Latif auf der Genfer Klimakonferenz wird nunmehr verständlicher. Als IPCC-Autor spricht er von einem Wiedereinsetzen der CO2-bedingten Erwärmung nach der prognostizierten Kältephase (s. pdf-File seines Genfer Vortrags unten, hier am 6.10. eingefügt). Tatsächlich wurde von IPCC-Forschern der Einfluss der Sonne auf Erdtemperaturen zu Gunsten der Rolle des CO2 bislang weitgehend ignoriert. Hält die Abkühlung in den nächsten Jahren weiter an, sind aber zweifellos harte Fragen zum Klimaeinfluss des menschgemachten CO2 unvermeidbar. Können extrem kostspielige CO2-Vermeidungsmaßnahmen angesichts eines eventuell unmaßgeblichen Einflusses dieses Treibhausgases im Hinblick auf wichtigere Umweltmaßnahmen, wie etwa die Versorgung von Dürregebieten unserer Erde mit sauberem Trinkwasser, noch verantwortet werden?
Prof. Dr. Horst-Joachim Lüdecke
Dipl.-Physiker
(EIKE-Pressesprecher)
Herr Latif sollte in Pension gehen und uns mit seinen Prognosen in Ruhe lassen. Daß die Sonnenaktivität mit dem Erdklima in direkter Verbindung steht, wußte ich schon in den Siebzigern. Ebenso, daß sie nicht vorhersagbar ist. Woher will nun Herr Latif wissen, wie sie sich weiterentwickelt?
Bisher hat dieser merkwürdige Wissenschaftler vor allem denen gedient, die sich mit dem sogenannten Klimawandel eine goldene Nase verdient haben. Und ich denke, das wird auch so bleiben!
Gleich, was die fehlerhaften Rechnungen und Hypothesen der Wissenschaft fuer Ergebnisse bringen: der Abfall vom schoepfenden All-Geist ist das Problem der Menschheit. Wer sich an das haelt was Jesus Christus sagte, braucht seinem physischen Tod nicht nachtrauern, denn wir alle muessen diesen sterben. Jesus sagte: „Was nuetzte es, wenn du die ganze Welt gewoennest, aber deine Unsterblichkeit dafuer verlierst.“ Und genau diesen Abfall von Gott, den wir heute weltweit finden ist, dass ist die Achillesferse einer weltweiten Poebel(miss)wirtschaft.
Lieber Herr F.C.Ewald,
logisch kommt es auf die lokalen Änderungen an, oder glauben Sie die Experten würden den globalen Mittelwert überall gleichermaßen annehmen? Sie können sich ja mal überlegen, wieviel Abweichung in der Meeresoberfläche von der Äquipotentialfläche dynamisch möglich sind. Der Golf-Freistrahl ist ca. ein Meter über die Atlantikbreite dynamisch gekippt. Mehr als ein paar Dekameter räumliche Variation kann also nicht drin sein, um nicht die Meeresströmungen grundlegend zu ändern. D.h. wenn ein mittlerer Anstieg in 2100 von >20 cm angenommen wird, so wird fast überall der Meeresspiegel gestiegen sein, mal mehr mal weniger.
Zunächst zur Ergänzung des Beitrags von 31: Sahne v. 24.9. noch folgendes; auch mit dem so gern prognostizierten mittl. Meeresniveauanstieg von 20 cm oder auch mal 100 bis 2100 verhält es sich ähnlich; wichtig sind die regionalen mittl. Hochwasserstände, wie man früher als Nordsee-anrainer schon in der Heimatkunde lernte. Zu viele sog. Wissenschaftler reden der Politik nach dem Munde – indem sie pro domo (bestenfalls ihre Disziplin) für mehr Fördergelder argumentieren. Vielen Bürgern wird man auch ein Mindestmaß an Verständnis für globale Klima- oder sogar Welt- modelle nicht abverlangen können, wenn selbst viele Wissenschaftler sich nicht einig sind was sie zu leisten vermögen und was nicht. Wer sich mit den div.( Rechen-) Modellen im Rahmen der Studien des Club of Rome beschäftigt hat, hätte lernen können, daß wir zur Vermeidung von Rohstoff-abhängigkeiten von arab. und russ. Quellen den Ausstieg aus der Kohleförderung schon vor 30 J. hätten beschließen müssen, da die Kohle mal dazu dienen kann Benzin mit dem Fischer-Tropsch Verfahren zu produzieren. Dann wäre D in der guten Lage wie heute F, wo ein pol. Ziel wie 20 oder 40% der Energie aus Ern. Energien ( absolut unwirt- schaftlich) produzieren zu wollen nur als Öko- lachnummer angesehen wird. mfG FCE Alicante
Lieber Herr NB,
vielen Dank für die interessante Diskussion zu diesem Thema, ihre Argumente, Anregungen und auch die Antworten. Man lernt ja im Dialog eigentlich immer etwas. Ich habe etwas dabei gelernt. Danke schön auch dafür. Die physikalischen Begründungen sollten wir weiter suchen. Denn es hängt ja kein unwichtiges Argument daran.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess,
ok, ich habe Sie nun wohl verstanden. Aber ich fürchte, ich kann Ihnen da auch nicht mehr „physikalische Rechtfertigungen“ für die Vorgehensweise nennen als Latif/DEMETER, außer dass die Modellierer guten Erfahrungen damit gemacht haben (wie auch bei der Wettervorhersage mit Ensemblen oder eben den saisonalen Vorhersagen). Ich denke, viel mehr Physik/Stochastik steckt nicht dahinter. Gucken Sie mal in Ar4 Ch. 8, da gibt es noch ein paar Erklärungen bzgl. Ursachen.
Sie sehen aber an den Unsicherheitsintervallen für z.B. die Klimasensitivität bei CO2-Verdopplung, wie vorsichtig man daher mit Aussagen ist. Diese Unsicherheitsintervalle kommen ja aus den Einzel-Modell-Ergebnissen. Auch da kann man wieder fragen, ob man das Bündel aus verschiedenen Einzel-Modelleergebnissen (nach der von Ihnen angesprochenen „Renormierung“) statistisch äquivalent („deckungsgleich“) zu dem gesuchten statistischen Ensemble sind, was sich aus den Klimasystem eigenen Nichtlinearitäten ergibt.
Lieber Herr NB,
Sie schreiben, dass das aus mehreren Modellergebnissen gebildete Mittel im Allgemeinen keinen physikalischen Zustand darstellt. Darin stimmen wir, wie sie oben von mir lesen können überein.
Ich bin mir aber nicht sicher, ob sie mich richtig verstanden haben. Deshalb nochmal anders.
Jedes der von mir in #82 beschriebenen Modelle liefert den Temperaturverlauf als Funktion der Zeit. Aus diesem Temperaturverlauf kann man dann die Temperaturanomalie zu einer Referenzperiode berechnen. Dadurch werden alle Modelle zentriert, obwohl sie vorher das Erdsystem bei verschiedenen Mitteltemperaturen (12 °C – 17°C) beschrieben haben.
Ich suche deshalb die physikalische Begründung dafür, warum man diese Temperaturanomalien absolut vergleichen kann bzw. über sie mitteln kann. Aus dem oben gesagten hätte ich verstanden, dass wir beide der Meinung sind, man kann das im Allgemeinen eigentlich nicht.
Mein Lehrbuch „Klimawandel und Klimadynamik“ bleibt da leider eher vage. Prof. Latif schreibt darin auf S.132:
„Die Klimamodelle weisen daneben z.T. beträchtliche Fehler auf, sowohl was die Simulation des mittleren Klimas, als auch der Variabilität angeht. Man mittelt daher ebenfalls die Ergebnisse verschiedener Klimamodelle, in der Hoffnung, dass die Modellfehler zufällig verteilt sind und sich die Modellunsicherheit durch die Mittelwertbildung reduzieren lässt. In der Tat zeigen verschiedene Studien, dass dies der Fall sein kann.“
Das erschien mir als Erklärung unbefriedigend. Ich wüßte deshalb gerne eine physikalische Begründung, speziell zur Temperaturanomalie
Aus der im Buch zitierten Quelle: http://tinyurl.com/yboo5b4
„DEVELOPMENT OF A EUROPEAN MULTIMODEL ENSEMBLE SYSTEM FOR SEASONAL-TO-INTERANNUALPREDICTION (DEMETER) by Palmer et al, BAMS Juni 2004, S.853” schließe ich, dass die Begründung quasi-empirisch aus dem „hindcasting“ gewonnen wird. Allerdings hat die Quelle eher kurze Zeiträume untersucht.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess,
wenn ich Sie richtig verstehe ist Ihre Frage, ob das aus mehreren Modellergebnissen gebildete Mittel auch einen möglichen physikalischen Zustand darstellt. Die Antwort ist: i.A. nein, denn die Mittelwertbildung ist linear, aber viele physikalischen Größe sind nichtlinear abhängig. Diesen Effekt haben Sie auch bei Mitteln über gemessene Zeitreihen, ein klimatologisches Beispiel: berechnen Sie den Mittelwert einer Zeitreihe des Dampfdrucks und der Temperatur. aus beiden Mittelwerten läßt sich eine zugehörige relative Luftfeuchtigkeit ableiten. Dieser Wert stimmt jedoch nicht mit dem Mittelwert aus den aus den beiden Messreihen punktweise berechneten relativen Luftfeuchtigkeiten überein.
Ums klar zu machen: Mittelwerte sind nach der Schätztheorie der Stochastik nur dann der „best guess“ für den Erwartungswert, wenn die Werte normalverteilt sind. Dies ist jedoch für viele physikalische Größen wegen der nichtlinearen Abhängigkeiten notwendigerweise nicht der Fall. Wenn Sie jedoch nun einen Temperaturmittelwert aus einem Klimamodell mit dem Mittelwert aus Messwerten berechnen, so ist dies natürlich korrekt, selbst wenn beide nicht dem Erwartungswert entsprechen würden. In der Praxis sind jedoch die Fehler und Unsicherheiten aus anderen Gründen (Datenqualität/-dichte, Modellqualität) größer als der Effekt aufgrund einer nicht-normalen Verteilung.
Lieber Herr Limburg,
Sie fühlen sich also schlecht informiert? Machen Sie einen Besuchstermin beim DKRZ o.ä. ab. Die Modell-Experten dort klären Ihnen sicherlich gerne Ihre Fragen, so habe ich dies zumindest persönlich erfahren.
Lieber Herr NB,
kurzer Nachtrag. Ich beziehe mich mit meiner Frage auf den „MultiModel Mean“, falls das nicht klar geworden sein sollte.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr NB,
damit sie mich verstehen ganz konkret aus der ClimateExplorer Webseite. Ich habe Modelle mit unterschiedlichen Verläufen der tas (surface air temperature)ausgewählt, um meine Frage zu verdeutlchen.
Das Model CSIRO MK3 20cm3, betrachtet habe ich tas (surface air temperature), startet bei 12.7°C in 1871. Die Temperatur fällt bis 1945 auf 12.3°C. Von da an steigt die Temperatur mehr oder weniger kontinuierlich bis auf 13°C.
Das Modell INGV_echam4 20cm3 , betrachtet habe ich tas, steigt hingegen kontinuierlich von 14.8°C auf 15.8°C.
Das Modell BCC cm1 20cm3, betrachtet habe ich tas, startet bei 16.6°C, fällt bis 1910 auf 16.5°C, steigt bis 1940 auf 16.9°C, fällt bis 1980 auf 16.8°C und steigt bis 2000 auf 17.2°C.
Das Modell GFDL CM 2.0 20cm3, betrachtet habe ich tas, startet 1860 bei 12.2 °C, fällt bis 1880°C auf 11.8°C und steigt von dort auf 12.2 in 1900, steigt bis13.2 in 2000.
Das Modell GISS EH 20cm3, betrachtet habe ich tas,startet 1880 bei 15° °C, fällt bis 1885°C auf 14.5°C und steigt von dort auf 14.9 in 1900, steigt bis15.5 in 2000.
Qualitativ für mich sehr unterschiedliche Verläufe.
Meine Frage nochmal: Ist es physikalisch gerechtfertigt den Mittelwert der tas (surface air temperature) bzw. der Temperaturanomalie über diese Modelle zu bilden? Wenn ja wüßte ich gerne die physikalische Erklärung warum das erlaubt ist?
Mit freundlichen Grüßen
Günter Heß
Herr Limburg,
vielleicht sollten Sie einfach mal diese aktuelle Konferenz besuchen. Lassen Sie sich erklären, wieweit Ihre „Tatsachen“ bei der Beurteilung der Abbildungsgüte eines Modells zur Realität relevant sind. Da können Sie direkt fragen, was Prof Peitgen zur dort ebenfalls vorgestellten Klimamodellierung sagt und was daran anders sein sollte, als bei den anderen dort vorgestellten modellierten Welten. Darunter gibt es genug nicht minder chaotische Systeme. Ein Tipp: formulieren Sie Ihre Fragen gaaanz konkret – wenn Sie so rumpalavern wie hier, wird keiner Lust verspüren, Ihr konfuses Halbwissen für Sie zu sortieren.
http://leopoldina.mpi-inf.mpg.de/dante-cms/live/struktur.jdante?sid=FPGEGBENFDEIEMFPCIADAAAAAAGJAIAEAAAAGGBEDBCODCDFDEDEDJDEDDDDDEDGDGDFDCDCDGDCEFDJGMADAAAAAAIMGAMIDBKDCN58DC&dph=&aid=1131&back_id=4141&parent_id=3746&node_id=4169
Herr Limburg,
mit Ihrem Kommentar kann ich nichts anfangen.
Zeigen Sie mir an einem konkreten Klimmodell, was genau dort falsch oder unvollständig ist.
Lieber Herr Hess,
„Mathematisch und statistisch ist das richtig, aber ein Mittelwert muss auch physikalisch einen Sinn haben. “
Richtig, physikalisch kann man mit dem globalen Temperaturmittel nicht weiterarbeiten (ausser in den einfachsten 1-dim Erklärungsmodellen wie Energiebilanzmodelle mit einer simplen Modellatmosphäre ohne Wasser o.a.). Wenn in den Szenarien gerne das globale Temperaturmittel gezeigt wird, so ist dies ja nur die simpleste Information, die man aus den Modellen gewinnt.
Wenn ich Sie richtig verstehe, sehen Sie das Problem, dass es paasieren könnte, dass ein Modell bei niedriger Globaltemperatur mehr Eisbedeckung veranschlagt als ein Modell bei höherer Temperatur. Wenn nun durch Prozesse dem Boden mehr Energie zugeführt wird, so wird die im ersten Fall mehr zum Schmelzen von Eis „verwendet“ als beim zweiten Fall und damit bleibt für die Lufterwärmung weniger übrig. Das ist natürlich richtig und würde auch so passieren. Aber so fängt man mit den Modellen ja nicht an. Man gibt kein globales Mittel und eine dazu passende räumliche Temperaturverteilung vor, sondern man gibt die klimatreibenden Ursachen vor (also deren Energieflüsse etc. zum Startpunkt) und rechnet dann den dazugehörigen Klimazustand aus. Dann ergeben sich die räumlichen Parameterverteilungen (wie Temperatur) von selbst. Wenn sich das Modell eingependelt hat (stationär wird), kann man die klimatreibenden Ursachen zeitlich verändern und die Drift des Klimas darauf verfolgen (z.B. mit Szenarienverläufen dieser Parameter oder nach bekannten gemessenen Verläufen). Der Start passiert nun aber nicht bei einer Erde als Eisball, der erstmal von 0 K aus geheizt werden müsste, sondern es werden schon die Parameterverteilungen wie sie sich zu dem Startpunkt (in der Vergangenheit mit näherungsweise bekannten Verteilungen) vorliegen. Wenn man z.B. ein Modell bis 2100 rechnen will, so startet man z.B. 1980, gibt die durch messungen bekannten Verteilungen von Eis, Temperatur etc. vor und läßt das Modell von diesem Zustand aus starten und unter konstanten klimatreibenden Faktoren (auch von 1980) solange rechnen, bis das Modell nicht mehr driftet. D.h. das Modellklima passt zusammen mit den klimatreibenden Faktoren von 1980, m.a.W. im stationären Zustand wird das 1980iger Klima beschrieben. Von dort aus läßt sich dann weiterrechnen, wenn man die klimatreibenden Faktoren gezielt variiert oder über Rückkopplungen ans Klima selber beeinflussen läßt.
Lieber Herr NB,
Sie schreiben:
„Problematisch wird es dann, wenn man diesen Mittelwert als Eingangsgröße für Folgeprozesse hernimmt. Das darf man nicht. Denn dann kommt schnell Unsinn raus. Ihr Beispiel zeigt ja, dass es Unsinn ist, die Mitteltemperatur als Mass für eine globale Gesamtenthalpie zu nehmen. Aber nicht nur bei Phasenübergängen, sondern schon bei jeder nicht-linearen Beziehung wird das Ergebnis falsch, wenn man statt die lokalen Größen ihr räumliches Mittel verwendet.“
Da sind wir uns ja einig. Man könnte höchstens für ein homogenes Teilsystem eine Temperaturänderung als angenähertes Maß für eine Enthalpieänderung nehmen. Aber wie oben gesagt vorausgesetzt es haben keine Phasenübergänge stattgefunden. Aber das muss man dann von Fall zu Fall diskutieren.
Übrigens sehe ich innerhalb eines Modells zunächst keine Probleme. Das wird nach dem Stand des Wissens behandelt.
Aber sie schreiben auch:
„zunächst kann man von jeder physikalischen Größe einen räumlichen oder zeitlichen Mittelwert bilden.“
Mathematisch und statistisch ist das richtig, aber ein Mittelwert muss auch physikalisch einen Sinn haben. Zum Beispiel macht es ja physikalisch keinen Sinn, die mittlere Emissionswellenlänge über ein Emissionsspektrum mit diskreten Linien zu messen. Es macht auch keinen Sinn 2 identische chemische Reaktionen in verschiedenen Reaktoren bei verschiedenen Temperaturen zu untersuchen und gemittelte Konzentrationen oder Temperaturen falls die reaktion z.B. exotherm ist über beide Reaktoren über die Zeit aufzutragen. Intensive Größen wie die Temperatur sind zusätzlich besonders zu beachten.
Meine Frage bezieht sich auch weniger auf die Methode der Modellierung, sondern auf die Schlussfolgerungen die man aus den Ergebnissen physikalisch gewinnen kann.
Ein Klimamodell ist doch abstrakt gesehen auch nichts weiter, als ein komplexes System dem durch die Sonne über die Zeit eine bestimmte Energiemenge zugeführt wird. Nehmen wir mal an wir haben zwei Klimamodelle in denen wir über das 20. Jahrhundert jeweils 1 K Temperaturanstieg beobachten. Das erste Klimamodell startet bei 13°C mit einer bestimmten Verteilung von Eis, Luft, Wasser und Land und einer durch die Mitteltemperatur beschriebenen Temperaturverteilung. Das zweite Klimamodell startet bei 16°C mit einer anderen Verteilung von Eis, Luft, Wasser und Land, sowie einer anderen durch die andere Mitteltemperatur beschriebenen Temperaturverteilung.
Meinem Beispiel nach bekommt man zusätzlich einen systematischen Bias aufgrund der unterschiedlichen Phasenübergänge. Meiner Meinung muss man, wenn man die Temperaturanstiege vergleichen oder mitteln will, mindestens über die Phasenübergänge ebenfalls buchführen. Das heißt die extensive Größe Energieänderung oder Enthalpieänderung betrachten. Man müßte so finde ich zusätzlich die Enthalpieänderung vergleichen, die die Erde im jeweiligen Modell erfahren hat. Auswerten kann man das ja sicherlich.
Deshalb nochmal meine Frage: Ist es physikalisch erlaubt ohne weitere Diskussion den Temperaturmittelwert über diese beiden Modelle zu bilden. Wenn ja, was ist die Begründung dass es erlaubt ist? Ich wüsste das gerne.
Ich schlage zum Weiterdiskutieren mal ein Argument vor, dass ich mir vorstellen könnte. Man könnte zusätzlich aus den Modellen den „total energy content change“ des Erdsystems bestimmen. Ist dieser bei den verschiedenen Modellen gleich innerhalb eines bestimmten Prozentsatzes, dann kann man ja vermutlich argumentieren, dass man den Mittelwert der Temperaturänderung innerhalb von Fehlergrenzen physikalisch sinnvoll bilden kann.
Mit freundlichen Grüßen
Günter Heß
@NB
Fragen Sie doch mal Herrn Rahmstorf, warum er mit seinen „Glättungen“ und „Filterungen“ so in der Kritik steht, bei den von Ihnen hochgelobten Statistikern, allerdings bei denen aus Kanada, ich bezweifele, daß Sie die in Ihre Lobreden über die Mathematik und der Statistik mit einbeziehen 🙂
Lieber Herr Limburg,
zu Ihrem Kommentar. Was Sie da bemerken, ist doch trivial. Sicher, aus diskreten Punktwerten auf ein kontiniuerliches Feld zu schließen, ist eine Wissenschaft für sich. Dieses Problem hat man immer, wenn man diskret vorliegende Daten in eine Karte umsetzt. Das Problem haben Sie schon, wenn Sie Messpunkte kühn mit dem Kurvenlineal verbinden.
Aber Sie werden doch wohl zugeben müssen, dass dieses Problem lösbar ist, solange es mit Sachverstand geschieht, oder diskutieren wir hier jetzt sogar auf der wissenschaftstheoretisch-philosophischer Ebene?
Der einzige Zweck der Mittelwert-Bildung (wie auch immer berechnet) ist doch generell, dass man Fehler (systematische oder zufällige Messfehler)unterdrückt und damit zwei Messreihen oder Theorie gegen Beobachtung besser vergleichen kann. Das gleiche gilt beim Vergleich von Simulationen und Beobachtungen beim Klima. Dass dabei lokal größere Abweichungen auftreten als bei den Mitteln, ist auch kein Geheimnis. Nichtdestotrotz nutzen die Modellierer die gesamte Feldverteilung der Parameter (soweit verfügbar), um Modell und Beobachtung zu vergleichen. Das „Tunen“ von Modelle auf möglichst gute Übereinstimmung der Mittelwerte mit der Beobachtung ist ein Mythos. Denn durch solche „Fassadenverschönerungen“ wird man kaum etwas über die Stärken und Schwächen des Modells lernen.
Lieber Herr Hess,
zunächst kann man von jeder physikalischen Größe einen räumlichen oder zeitlichen Mittelwert bilden. Problematisch wird es dann, wenn man diesem Mittelwert als Eingangsgrösse für Folgeprozesse hernimmt. Das darf man nicht. Denn dann kommt schnell Unsinn raus. Ihr Beispiel zeigt ja, dass es Unsinn ist, die Mitteltemperatur als Mass für eine globale Gesamtenthalpie zu nehmen. Aber nicht nur bei Phasenübergängen, sondern schon bei jeder nicht-linearen Beziehung wird das Ergebnis falsch, wenn man statt die lokalen Größen ihr räumliches Mittel verwendet.
Bei den Modellen tritt diese Schwierigkeit durch die Gitterweite auf. Aber hier hilft man sich ähnlich wie bei der Turbulenztheorie.
Der globale Temperatur-Mittelwert wird in den Modellen während des runs aber auch nicht benötigt, dort läuft alles in den Gitterpunkten bzw. Wellenvektoren ab, sondern erst bei der Ergebnis-Analyse berechnet.
@NB
Könnt Ihr alle nicht lesen oder wollt Ihr nicht ?
Ich rede nach wie vor von Globalstrahlung ?
Oder ist das etwas wo AGWisten einen großen Bogen drum machen und sich per „oh, verlesen, I’m so sorry“ raus reden ?
Erst Osram, der sich dumm stellt, dann Ihre dummer Frage, ob ich den Unterschied wüßte und jetzt der gequirlte Schmarrn ?
Ist Ihnen das nicht peinlich ??
Und trotzdem hier aufplustern wie „Herr Klima“ persönlich ?
Lieber Herr NB,
Danke für ihre Antwort und die netten Worte. Mir macht es auch Spaß mit Ihnen zu diskutieren. Es gibt immer Dinge in denen wir uns nicht so detailliert auskennen. Das ist gerade einem Naturwissenschaftler sehr bewusst. Deshalb diskutieren wir in den Naturwissenschaften ja, um etwas zu lernen. Hohn und Spott sollte niemand dafür ernten. Aber ich habe in den verschiedenen Foren festgestellt, dass jeder seinen Teil abbekommt. Aber wir lassen uns davon hoffentlich nicht abhalten.
Zu den Modellen und dem Mittelwert:
Ich bin schon davon ausgegangen, dass die Erhaltungssätze in den einzelnen Modellen berücksichtigt sind. So habe ich zu mindestens die Driftklausel in den „Control Runs“ verstanden.
Ich verstehe das für die Wettervorhersage, dass man den Mittelwert nimmt und nehmen darf, weil die Wettervorhersage eher lokal ist und die Zeitdauern kurz sind.
Meine Skepsis besteht für das gesamte Jahrhundert und den globalen Temperaturmittelwert aus verschiedenen Modellen, die über dieses Jahrhundert verschiedene Mittelwerte der Global-Temperatur aufweisen. Verdeutlichen möchte ich das mit dem folgenden Gedankenexperiment:
Nehmen wir zwei abgeschlossene Systeme, die jeweils Wasser enthalten. Wir können beiden Systemen per Funk eine bestimmte Energiemenge zuführen und die Temperaturänderung genau genug messen. Das erste System enthält Eis bei -2°C. Das zweite System enthält flüssiges Wasser bei 3°C. Die Energiemenge reicht aus, um Eis um 1 Kelvin zu erwärmen. Wir führen jetzt die Energie zu und messen die Temperaturänderung in beiden Systemen.
Die Aufgabe lautet nun die Temperaturänderung abzuschätzen, die diese Energiemenge für Wasser bei 1°C hervorruft. Mit dem Mittelwert der beiden Temperaturänderungen geht das nicht, da sich die beiden Systeme in unterschiedlichen Phasen befinden und somit verschiedene physikalische Eigenschaften haben.
Ich bin nun kein Klimaforscher und habe zu diesem Mittelwert nur gelesen was so im IPCC Bericht AR4 steht und in dem neuesten Lehrbuch von Prof. Latif „Klimawandel und Klimadynamik.
Mir fehlt aber trotzdem bisher eine physikalisch befriedigende Antwort auf die Frage:
Wie ist der „MultiModellMultiEnsemble“ Mittelwert physikalisch gerechtfertigt, wenn die einzelnen Modelle über das ganze Jahrhundert unterschiedliche Mitteltemperaturen aufweisen?
Wenn es mir jemand erklärt wäre ich dankbar.
Mit freundlichen Grüßen
Günter Heß
# Krishna
ich wüßte nicht, dass zum Thema „Gegenstrahlung“ im Afrika-Artikel noch Fragen offen wären bis auf die von Herr Schwarz. Da warte ich von ihm auf eine detailliertere Problembeschreibung.
@NB
Wollten Sie sich nicht stellvertretend zu der Globalstrahlung äußern, nachdem die Sparlampe da was durcheinander geschmissen hat und jetzt zappenduster in der Ecke steht ?
Ich warte gern, ich lasse Sie noch ein paar Tage recherchieren, was das Eine und was das Andere ist und warum da ein Zusammenhang mit den Wolken besteht und uU mit einer Temperatur.
Ansonsten waren das von Ihnen auch nur dicke Backen ?
Lieber Herr Hess,
obwohl ich Ihre Frage Ihnen nicht befriedigend beantworten werden kann, freue ich mich darüber.
Sie sind der Erste in den EIKE blogs, der – so scheint es mir – ergebnisoffen um die Sache diskutieren will und anscheinend nicht schon vorher weiss oder es darauf anlegt, dass die Diskussion ins Unsachliche eskalieren und fruchtlos verebben wird.
Ich gebe zu (mit der Erwartung von Hohn und Spott von EIKE-Sympathisanten), dass ich mich bei der Modellierung nicht so detailliert auskenne. Aber man kann schließlich nicht Alles wissen und muss es auch nicht. Denn es gibt ja auch andere vertrauenswürdige und schlaue Wissenschaftler in unserer Gesellschaft – dies ist jedenfalls meine Auffassung. Misstrauen (hier als Skeptizismus verkauft) kann zwar eine Tugend sein, Misstrauen aufgrund andersartiger Auffassungen ist jedoch auf Dauer selbstzerstörend.
Zu Ihren Fragen:
Ein bias zwischen den modellierten und den beobachteten Parametern (z.B. Temperatur) bedeutet nicht, dass Erhaltungssätze verletzt werden, sondern im Temperaturbeispiel dass Energie unrealistisch zwischen Atmosphäre und Deckschicht verdriftet. Die Modelle sind generell so aufgebaut, dass die Erhaltungssätze berücksichtigt sind (was einigen Aufwand in der Numerik bedeutet). Ich denke, dass inzwischen auch jedes Modell eine Drift kleiner 0,2 °C in 100 Jahren hat. Somit denke ich hat die Modell-Auswahl weniger mit „cherry picking“ als mit den begrenzten Rechenkapazitäten zu tun.
Zum „MultiModellMultiEnsemble Mean“: Es hat sich auch bei den Wettervorhersage-Modellen herausgestellt, dass man das statistische Ensemble, welches den Klimazustand repräsentiert, durch Zusammenfassung mehrerer verschiedener Modelle besser erfasst als durch Zusammenfassung mehrerer Ensemble-Durchläufe bei einem Modell. Die Formel, es gibt falsche und ein richtiges Modell, nach dem gesucht wird, ist so nicht richtig. Jedes Modell vereinfacht irgendwo und hat seine Stärken und Schwächen. Aber man kann berechtigt fragen, ob man international nicht DAS „Super-Modell“ schaffen und dafür alle Resourcen binden sollte als in viele nationale Einzelprojekte.
Krishna Gans sagt: „Konsens ist Politik, aber nicht Wissenschaft.“
Treffer. Im vorliegenden Fall (Klimalüge / CO2-Schwindel) handelt sich’s dazu um ein Riesengeschäft: Handel mit „Carbon-Futures“. In GB halten dazu 2/3 der Menschen den Klimahype für ein weiteres Mittel der aktuellen Regierung, mehr Abgaben und Steuern einzutreiben. Ist ja auch nicht so schwer. Für die Klimalügner wird’s immer enger. Wer heutzutage noch von „Erderwärmung“ spricht, ist uninformiert oder lügt; selbst bei der „Linken“ wachsen Zweifel. 😉
Zitat:
“ (…) die russische Zeitung Pravda titelte nun »Auf die Welt kommt eine neue Eiszeit zu«. Das war nicht etwa politisch gemeint. Und die Pravda bezieht sich mit ihrem Bericht auch keinesfalls auf die in vielen Teilen der Welt derzeit eher kühlen Temperaturen. Die Pravda weist auf russische Studien hin, nach denen der CO2-Gehalt der Atmosphäre seit Jahrmillionen immer dann hohe Konzentrationen erreicht, wenn eine neue Eiszeit bevorsteht. Und zwar ganz ohne industrielle Abgase. … “
http://english.pravda.ru/science/earth/106922-0/
http://info.kopp-verlag.de/news/zweifel-an-der-warmen-klimakatastrophe-eine-russische-studie-warnt-nun-vor-weltweit-sinkenden-te.html
Lieber Herr NB,
Sie schreiben:
„Jetzt müssen Sie nur noch statt die summary im AR4 im Hauptteil (Kap. 9 und insb. supplementary material zu Kap. 9) suchen, die die Ergebnisse der Einzelmodelle statistisch zu einem Gesamtbild zusammenfügen.“
Das habe ich ja getan. Statistisch verstehe ich, dass man den Mittelwert zwischen Modellen und Ensembles bildet. Aber was ist physikalisch.
Es wurden für die „anthropogenic + natural forcings „14 Modelle mit 58 Simulationen ausgewählt, aber für die „natural forcings“ 5 Modelle mit 19 Simulationen. Das verstehe ich zunächst nicht. Können sie mir das erklären, oder ist das „cherry picking“ in Bezug auf die physikalischen Modelle?
Das einzige Kriterium das ich gefunden habe ist der Energieerhaltungssatz, das heißt Drift kleiner 0.2°C über das Jahrhundert in „Control Runs“.
Methodisch gesehen habe ich außerdem eine Frage zu den „MultiModellMultiEnsemble Mean“ der gebildet wurde. Wenn die mittlere globale Temperatur der Modelle zwischen 13 und 17°C liegt heißt das doch, dass jedes Modell einen anderen Energiezustand der Erde repräsentiert. Das hat Auswirkungen für alle Prozesse, die von der Absoluttemperatur abhängigen, wie Eisbildung und Eisschmelze oder Wolkenbildung
Wieso darf man denn dann diesen Mittelwert bilden?
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Limburg,
Danke für ihre ausführliche Antwort und die Zitate. Ich habe aber meine quantitative Frage bewußt gestellt. Mir ist klar, dass Sie schwer zu beantworten ist, aber das sind quantitative Fragestellungen in der experimentellen Naturwissenschaft immer. Hypothesen aufzustellen und Prozesse oder statistische Auswertungen zu finden, die vermuten lassen dass es so sein könnte ist natürlich der erste Schritt. Aber die Naturwissenschaft darf dort nie stehenbleiben, sonst bleiben es Vermutungen. Die Naturwissenschaft muss danach streben quantitative Fragen zu beantworten, wenn auch mit Fehlerbalken. Bitte sehen Sie es mir nach, aber meine Ausbildung sagt, dass ich davon nicht ablassen kann. Das ist unabhängig davon, welche Meinung oder Vermutung ich selbst habe.
Ich habe das Paper von Prof. Gerlich gelesen und auch einige der anderen von Ihnen zitierten Autoren. Ich habe mir aber auch die Paper von Hansen, Schmidt und Rahmstorf und anderen angeschaut und mich entschieden meine Frage zu stellen. Eine Zahl mit Fehlerbalken und eine genaue Beschreibung der Methode, wie die Zahl gewonnen wurde finde ich eben notwendig, um eine Aussage wie „very likely“ überhaupt zu treffen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Osram,
Danke schön für die Zitate. Das Paper von Lean ist in der Tat schön klar und beschreibt die angewandte Methode sehr schön. Danke dafür. Als Ergebnis könnte man festhalten, dass etwa 0.6K auf anthropogene Einflüsse zurückzuführen sind. Die Methode habe ich wie folgt verstanden.
Lean et al. benutzen den berechneten anthropogenen Strahlenantrieb, den Enso Index, vulkanische Aerosole und „Solar Irridiance“, um empirisch die globale Mitteltemperatur des 20. Jahrhunderts zu rekonstruieren. Dabei benutzen sie für den anthropogenen Strahlenantrieb aus Klimamodellen berechnete Daten. Sie haben 4 Datensätze und benutzen 5 Fitkoeffizienten und 4 „time lags“, die frei gewählt wurden, wenn ich die Formulierung richtig interpretiert habe.
Der „time lag“ von 120 Monaten für den anthropogenen Strahlungsantrieb ergäbe mit den Wärmekapazitäten von Stephen Schwartz einen climate sensitivity parameter von ca. 0.7 K/(W/m2).
Allerdings bin ich mir nicht sicher, ob die
Knutti et al. Kritik gegenüber Schwartz nicht auch hier gilt, dass im Grunde nur eine Zeitkonstante für den anthropogenen Strahlungsantrieb benutzt wird und nicht mehrere wie es dem Klimasystem besser entspricht.
http://www.iac.ethz.ch/people/knuttir/papers/knutti08jgr.pdf
Damit ergäbe sich dann ja eine „climate sensitivity“ von 2.8°C. Insofern sind die Fits sicher konsistent mit dem GISS Modell E . Wenn ich das im Climate Explorer richtig überschlagen habe liefert das GISS Modell E 0.6°C für das 20. Jahrhundert und 2.8°C bis 2100.
Die anthropogenen Strahlungsantriebe sind, wenn ich das richtig verstehe von James Hansen mit dem GISS Modell E berechnet:
http://www.agu.org/pubs/crossref/2002/2001JD001143.shtml
Da ich kein Klimaforscher bin, bin ich mir noch nicht sicher, ob dieses Vorgehen in Bezug auf meine Zahl aus Lean et al. nicht ein Zirkelschluss ist. Aber da können vielleicht Sie mir aushelfen.
Ehrlich gesagt, wenn sie Originalliteratur kennen, die die Bestimmungsmethode aus den Modellen gut erklärt wäre ich dankbar.
Mit freundlichen Grüßen
Günter Heß
Lieber Blogger Osram,
EIKE-Blogs dienen sachdienlichen Kommentaren, Hinweisen auf Fehler in News-Beiträgen sowie der fachlichen Diskussion unter den News-Lesern selber. Bezug eines Blogs muss entweder der News-Beitrag selber oder aber ein einschlägiger vorangegangener Blog eines anderen Teilnehmers sein. Unnötig-penetrante Wiederholungen in Blogs des gleichen Autors ohne inhaltlichen Neuwert sind zu vermeiden. EIKE legt vor allem auf einen Umgangston wert, wie er den üblichen mitteleuropäischen Höflichkeitsformen entspricht. Erfahrungsgemäß macht nicht nur der „Ton die Musik“ sondern ein angemessener Ton trägt oft auch zur sachlichen Klärung bei.
Werden die hier geschilderten Bedingungen nicht eingehalten, werden die einschlägigen Blogs gelöscht und der Absender gleichzeitig aufgefordert, seinen Blog diesen EIKE-Kriterien anzupassen. Diese Löschung erfolgt nunmehr mit den Blogs von „Osram“.
Die EIKE-Redaktion
Hess, um es Ihnen noch etwas leichter zu machen:
http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter9.pdf
Das enstprechende Kapitel im IPCC Bericht. Darin werden eigentlich alle nennenswerten Studien zu diesem Thema (die bis 2006 erschienen) erwähnt und kurz behandelt.
Wenn Sie tiefer einsteigen wollen, müssen Sie schon die Primärliteratur lesen.
Aktuell und gut verständlich ist dieses Paper von Lean und Rind, indem versucht wird die Erwärmung seit 1889 durch relativ einfache Methoden den verschiedenen Faktoren zuzuordnen:
http://pubs.giss.nasa.gov/docs/2008/2008_Lean_Rind.pdf
Die 0,4-0,5K Anteil von Solar entspringt Limburgs Fantasie. Tatsächlich dürften es so um 10% Anteil sein bzw. < 10% Dazu gibts zig Paper, siehe auch IPCC Report oder das Lean und Rind Paper.
@NB
Interessant die Mutation von Osram zu NB ;.)
Auf die Frage von Herrn Hess:
noch eine Ergänzung zu den Tipps in #60 bzw. #57. Dies ist ein älteres paper. Aber trotzdem:
http://xweb.geos.ed.ac.uk/~suerigby/GEP/GEP%20precis%202/Climate%20change%20over%20last%201000%20years.pdf
@NB
Globalstrahlung = kurzwellig
Gegenstrahlung = langwellig
und weiter ?
Soll das jetzt sowas wie eine HÜ sein ?
Lieber Herr Limburg,
erstmals Danke für ihre detaillierte Antwort. Eine Zahl haben Sie leider auch nicht genannt. Ich verstehe sie aber so, dass Sie vermuten, dass 0.4K -0.5 K vom Einfluss der Sonne herrühren. 0.3 K erzeugt die Messmethode als zeitlich variabler Bias.
Sie schreiben ausserdem:
„Das sieht indirekt auch das IPCC so. Prof. Mitchell Leitautor und Chef des Metoffice sagt dazu: Mitchell et al. (2007)51
“It is only possible to attribute 20th Century warming to human interference using numerical models of the climate system.”
Können Sie das Paper von Mitchell bitte genauer zitieren. Ich habe es bisher noch nicht gefunden. Außerdem würde ich gerne wissen, welche Anteil am Temperaturanstieg die Modelle ausrechnen und wie da die Fehlerbalken für das 20 Jahrhundert sind.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß,
Sie scheinen einer der wenigen in diesem EIKE-Forum zu sein, der sich skeptisch im eigentlichen, positiven Sinne des Wortes verhält. Ihr link zu den Einzel-Modellen http://climexp.knmi.nl/selectfield_co2.cgi ist schon mal jenseits dessen, was „Klimaskeptiker“ sonst bereit sind an Recherche zu investieren. Jetzt müssen Sie nur noch statt die summary im AR4 im Hauptteil (Kap. 9 und insb. supplementary material zu Kap. 9) suchen, die die Ergebnisse der Einzelmodelle statistisch zu einem Gesamtbild zusammenfügen.
@Osram
Ich habe Sie nach dem Zusammenhang „Globalstahlungserhöhung/ Bedeckung/ Temperatur gefragt, in einem anderen Thread, nicht hier, da haben Sie was von Gegenstrahlung gefaselt, wie schwer die zu messen sei. Deshalb eben hier noch mal die Frage ;.)
Warum eiern Sie da so drum rum ? Ist doch für eine mindestens 100 W Osram Leuchte wohl kein Problem ?
Was die Konsensfrage angheht: solange etwas unklar ist, wird geforscht, deswegen ist es OK, das die s.g. Klimaskeptiker keinen „Konsens“ haben. Die Vertreter der Apokalypse des CO2 „Treibhauses“ suchen nicht mehr, weil sie der irrigen Meinung sind, sie wüßten schon alles – ein Trugschluß und ein Luftschloß.
Unabhängig davon ist „Konsens“ nicht Wissenschaft, sondern Politik.
Lieber Herr NB #55,
ich werde natürlich weiter selbst recherchieren, aber ich hatte aus ihrem Auftreten in diesem Forum geschlossen dass Sie das wissen. Das hätte mir die Recherche erspart.
Die Modelle die ich im Climate Explorer finde: http://climexp.knmi.nl/selectfield_co2.cgi zeigen Anstiege zwischen -0.1K und 1.3K bei globalen Mitteltemperaturen von 12.8°C bis 17.2°C. Soll ich daraus jetzt 0.6K +/- 0.5K schließen, wenn ich die Ausreißer ignoriere? Ich hoffe eher nicht.
Ich würde es deshalb begrüßen, wenn mir jemand einen Fachartikel nennen würde, der das wissenschaftlich kompetent auswertet und den anthropogenen Anteil als Zahl mit Fehlerbalken ausweist, und die Methode veröffentlicht wie ausgewertet wurde.
Wenn Sie diese Zahl bzw. so einen Artikel nicht kennen verstehe ich aber überhaupt nicht wie Sie sich hier so herablassend über ihre Mitmenschen äußern. Siehe ihr Kommentar #13.
Wenn Sie diese Zahl und einen Artikel kennen, dann wäre ich verbunden wenn Sie mir dazu die Quelle nennen würden. Eine Quelle zu den Modellen, die sie erwähnen würde mir auch schon ein kleines Stück helfen.
IM IPCC „Summary for Policymakers“ steht zum Beispiel nur: „Most of the observed increase in global average temperatures since the mid-20th century is very likely due to the observed increase in anthropogenic greenhouse gas concentrations.”
Müsste man dann nicht diese Zahl mit Fehlerbalken kennen? Erfordert es nicht die wissenschaftliche Sorgfalt, dass diese Zahl mit Fehlerbalken so veröffentlicht ist, dass sich jeder ein Bild machen kann?
Ich denke schon.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Kowatsch,
„Deshalb gilt meine durch Versuchsreihen bestätigte Aussage. C02 hat im ppm und im Promillebereich keinerlei Treibhauswirkung. “
Beschreiben Sie mir mal Ihren Versuchsaufbau, was haben Sie gemessen und was sollte laut Treibhaustheorie dabei herauskommen (Messgrößen und deren gemessene/theoretsich erwarteten Werte)
Ihre in ihrem mir unbekannten „Scriptum“ genannten Wege werden in Kohlenstoffzyklus-Modellen berücksichtigt. Daher weiß man auch, dass es einige Jahrhunderte dauert, bis sich nach der anthropogenen „CO2-Injektion“ in die Atmosphäre das Klima inklusive die CO2-Konzentration in der Atmosphäre wieder eingependelt hat.
Ich hoffe, Ihr Scriptum gibt über diesen Zeithorizont Auskunft.
Lieber Herr Hess,
wenn Sie den Ar4 kennen, da sind doch Modellergebnisse mit/ohne CO2 im Vergleich drin. Die moderneren Modelle berücksichtigen meist viele zukünftige Klimaeinflüsse gleichzeitig. Fehlt Ihnen nun ein Modell, was nur das CO2 berücksichtigt? Da recherchieren Sie mal in den Modellrechnungen aus den letzten 40 Jahren. Da wurde so was noch einfacher gemacht und nur ein Einfluß berücksichtigt.
@Osram, der sich nicht erleuchten lies…..
Was machen die kleinen Sputniks da oben ? Treibhaus messen ? Beleg, Link irgendwas handfestes ?
Ich warte immer noch auf eine Antwort zur Globgalstrahlung, die Sie, warum auch immer mit Gegenstrahlung verwechseln, damit alles Ahnungslosigkeit ausstrahlen, was Ihnen möglich ist, bei den Pseudo – für Osram ein Grund für ’ne grundsolide Pleite, weil Osram dunkel wie die Nacht bleibt.
Es gibt wie Sie sehen, unter den AGW-Skeptikern keinen Konsens, und das ist gut so, das spornt an, weiter zu forschen, statt sich im Konsens-Dedöns der Klima-Apokalyptier in einem eingebildeten „wissenschaftichen Konsens“ zu suhlen. Konsens ist Politik, aber nicht Wissenschaft.
Also, lassen Sie ein Osram-würdiges Licht aufgehen.
Schrecklich, wie die verkappten Atomkraft-Propagandisten (Osram!) auf dem CO2-Argument beharren und welcher rhetorischer Mittel sie sich dabei bedienen. Tarnen und Tricksen ist die Devise.
Wer einmal den AKW-Jünger Ulrich Waas mit seinem Kernkraft-Werbebuch gelesen hat – es erschien schon 1978 in der Erstauflage – weiß doch, wo das CO2-Argument inkl. AGW herkommt, und warum es in die Welt gebracht wurde.
Die Quellenanhaben dieses Buches „Kernenergie – ein Votum für Vernunft“ führen zum Atomkraftpapst Häfele, und seiner Theorie vom ach so gefährlichen CO2, die auch bis in jüngste Zeit nix Neues hervorgebarcht hat. Alle aktuellen Treibhaus-Argumente stammen von damals: Böses CO2! Das – ach nee – ausgerechnet die Energiekonkurrenten in so schädlicher Konzentration ausstoßen.
Alles schon vergessen?
Fazit: AGW – Atommarketing.
Konrad Fischer
Klimaketzer
Lieber Herr Osram #50,
wenn Sie so genau über den Treibhauseffekt Bescheid wissen und sich dabei auch über ihre Mitmenschen lustig machen, vielleicht können Sie ja ganz konkret meine Frage aus #30 beantworten.
Mit freundlichen Grüßen
Günter Heß
#43 antwortet:“Unglaublich Herr Kowatsch was für einen xxxxxxxx Sie reden. Nach dieser Logik könnte man die Astronomie oder vielleicht als noch besseres beispiel die Planetologie sofort einstellen. Ebenfalls sollten alle Geophysiker sofort ihre Geräte abschalten. Auch sollte aus allen Geologie Büchern sofort gestrichen werden, dass der Erdkern hauptsächlich aus Eisen besteht, schließlich war noch keiner unten und hats selbst nachgemessen. Jetzt überlegen Sie sich mal, warum es trotzdem Planetologe und trotzdem Geophysiker gibt.“
Nun zu Ihnen, Herr Osram, Sie geben hier zu, dass die Geophphysiker Geräte haben und auch einsetzen zur Überprüfung ihrer eigenen Theorie, genauso überprüfen die Astronomen und andere Wissenschaftler ihre Theorien durch Messungen und Versuchsreihen.
Genau das habe ich von den Treibhäuslern gefordert bzw danach gefragt, wo ihre Versuchsreihen sind, die beweisen, dass C02 im ppm-Bereich ein Treibhausgas ist. Bitte senden Sie mir Bilder von ihen Geräten zu und genaue Ablaufbeschreibungen des Versuches. Oder machen Sie mal die Augen zu, und was sehen Sie. Genau, es gibt keine. Sie haben weder Geräte und schon gar keine Versuchsbeweise.
Deshalb gilt meine durch Versuchsreihen bestätigte Aussage. C02 hat im ppm und im Promillebereich keinerlei Treibhauswirkung. Die Dosis macht das Gift. Die C02 Treibhauswirkung existiert nur im Computer des PIK Potsdam.
Ich möchte nun den anderen Lesern, die in der Lage sind, einfachen klaren Sätzen zu folgen und nun diesen Wortwechsel auf niederem Niveau schon zum dritten Male mitbekommen, noch mitteilen, dass meine in #37 konkret gestellten Fragen, von allen vier Umweltorganisationen, von Bild der Wissenschaft und vom Umweltbundesamt nicht beantwortet werden konnten. Wenigstens hat der DBV zugegeben, dass es sich beim Treibhauseffekt um eine Theorie handelt, die aber weltweit anerkannt sei. Versuchsbeweise gebe es keine. Alle anderen sind ausgewichen in das xxxxxX-Zentrums ihres Gehirns, woraus sie mir dann freundliche Grüße am Schluß ihres nichtsagenden Schreibens übermittelten. Bekannte von mir haben gar keine Antworten erhalten, weil sie keine Mitgliedsnummern bzw. Abonnementnr. angegeben haben.
Wir Klimarealisten müssen also argumentieren. Versuche haben ergeben: Im ppm-Bereich und im Promillebereich ist C02 überhaupt kein Treibhausgas, sondern ein lebensnotwendiger Stoff zum Erhalt des Lebens auf der Erde.
zu #34 Osram
Lieber Osram, sie brauchen in ihrem pubertären Alter keine Angst vor der Zukunft zu haben, dass 3%C02 übrig bleiben, nur weil es vom Menschen kommt und sich anhäuft, auch dieses Kohlendioxid wird wieder abgebaut. Sie tun so als gehöre der Mensch nicht auf die Erde
Ich will im folgenden fünf Wege des Abbaus beschreiben: In meinem Scriptum sind noch mehrere genannt. Wenn Sie mir Ihre Adresse hinterlassen, sende ich Ihnen gerne ein Exemplar zu.
Weg1: Für die Pflanzen ist Kohlendioxid lebensnotwendig. Sie nehmen es bei der Fotosynthese über die Blätter auf und stellen in der Pflanze Zucker, Zellulose und wieder Sauerstoff her. Mehr C02 Ausstoß führt zum schnelleren Wachstum der Pflanzen und damit wieder zum schnelleren Abbau von C02 in der Atmosphäre. C02 ist ein lebensnotwendiges Gas, genauso wichtig wie Sauerstoff. Ohne C02 gäbe es keine Pflanzen auf der Erde und damit auch keine Tiere, die Erde wäre kahl wie der Mond.
In Gewächshäusern begasen Gärtner ihre Jungpflanzen mit C02, damit sie schneller wachsen.
Die Schöpfung hat alles wohl bedacht: Wir erzeugen C02, wir atmen es aus und unser Abfallprodukt C02 brauchen die Pflanzen wiederum zum Leben. Im Gegensatz dazu erzeugen sie uns den Sauerstoff. Mit C02 zerstören wir nicht die Schöpfung, sondern wir erhalten sie aufrecht.
Weg2: Was die Pflanzen nicht aufnehmen, nehmen die Wolken auf, bzw der Wasserdampf der Atmosphäre: C02 ist in kaltem Wasser sehr gut wasserlöslich. In 1000m Höhe umherziehende Wolken hinterlassen hinter sich eine C02-freie Luft. Die Wolken fallen als Regen nieder und düngen wiederum die Pflanzen mit C02. Ein kurzfristiger vom Menschen über die Verbrennung verursachter C02-Anstieg in der Luft wird somit ausgewaschen, landet bei den Pflanzen oder über die Flüsse im Meer.
Weg3: Was immer noch übrig ist, dringt über die Spalten ins Erdreich ein, lagert sich in Höhlen und erzeugt mit dem Tiefenwasser sauren Sprudel.
Weg4: C02 braucht man zum Abbinden von Beton: Täglich werden mehrere 1000 Hektar auf der Welt betoniert. Das Festwerden von Flüssigbeton, den man auch Mörtel nennt, ist eine chemische Reaktion bei der C02 den Mörtel aushärtet. Alle Gebäude, alle Städte sind „ewige“ Deponien für Kohlendioxid.
Weg5: Der größte Teil des C02 geht über den Ozeanen nieder und löst sich in Wasser. Dort wird C02 allmählich kalkhaltige Gebilde und Korallengebirge unter Wasser aufbauen.
Wir erleben in neuerer Zeit eine C02-Umspeicherung. Was in früheren Zeit in Kohle und Erdöl gespeichert war, wird zukünftig vermehrt als Karbonat gespeichert werden.
Wichtig ist nun: Auf- und Abbau von C02 in der Atmosphäre steht immer in einem chemischem Gleichgewicht zueinander. Wird mehr C02 freigesetzt, dann erfolgen die Abbaureaktionen schneller, so dass sich der Gesamtgehalt an C02 in der Atmosphäre bei gleichbleibender Temperatur kaum verändert.
Nur die Sonne kann durch Wärmezufuhr in diesen Kreislauf eingreifen und die Gleichgewichte von Ausgasung und Abbau leicht verschieben.
Der C02-gehalt steigt nur in den Computern des PIk Potsdam.
Im Bereich bis 10 000 ppm ist C02 überhaupt kein Treibhausgas. Das beweisen nicht nur Versuche, sondern auch Inversionswetterlagen. Bei Inversion reichert sich nämlich nicht nur kalte Luft in den Tälern, sondern von Tag zu Tag mehr C02. Wäre C02 treibhauswirksam, dann dürfte es keine Inversionswetterlagen geben. Also Beweis erbracht durch Versuch und durch Realität.
So und jetzt mal versuchen, mit beiden Gehirnhälften zu denken und abzuwägen, damit ihre Emotionen nicht gleich wieder im xxxx des eigenen Gehirns enden.
Josef Kowatsch
„Paradigmenwechsel beim IPCC“ heißt die Fragestellung des Artikels.
Bei Latif vielleicht.
Bei wenigstens einem Jünger des AGW, untertrieben so genannt, ist das definitiv nicht der Fall, im Gegenteil, je mehr das Kartenhaus AGW in sich zusammenstürzt, wie auch durch solche Aussagen wie die von Latif untermauert, um so agressiver wird dieser Vennecke, der sich bei Readers Edition auch schon unter dem Pseudo Klusmann „ruhmreich“ verewigt hat.
Wenn Leute wie diese irgendwann mal politisch was zu sagen haben, dann wird es übelst, es ist unbegreiflich, was diese Klimareligion für eine Brut hervorgebracht hat.
Insbesondere, ohne das sie namentlich erwähnt werden, sind die Herren von EIKE hier gemeint, nicht nur sondern auch.
Einige Beispiele:
———————
„Die meisten AGW-Negierer tun das nicht, sie verlassen sich lieber auf die zusammengeschusterten Web-Auftritte Gleichgesinnter und merken dabei nicht, wie sie verschaukelt werden. Da etliche von ihnen eine kriminelle Neigung haben und das für ganz normal halten, sind sie auch sehr schnell bereit, der Wissenschaft ebenfalls betrügerische Absichten zu unterstellen. Weil sie selbst ständig mit Lug und Trug arbeiten und auch das für ganz normal halten, gehen sie davon aus, dass die Wissenschaft das gleiche tut. Solchen Leuten ist allerdings nicht mehr zu helfen, da sie zu einer ehrliche Diskussion nicht bereit sind “
———————
„Bei den AGW-Negierern gibt es im Wesentlichen drei Gründe:
1. ein allgemeines, aber nur selten bewusstes Unbehagen mit den Ergebnissen der Wissenschaft
2. die Angst, dass das Akzeptieren der Ergebnisse zu große und vor allem unbequeme Änderungen im eigenen Lebensstil zur Folge haben könnte
3. sobald sie ein gewisse Prominenz erreicht haben, spielen auch finanzielle Gründe eine Rolle.
4. allgemeine Demenz
[..]
ad 3. Singer, Ball, Michaels, Weber, Maxeiner, Miersch, Beck, Lüdecke, u. v. a.
ad 4. “Klimamanifest von Heiligenroth” – der Rentnerklub “
———————
Ab hier:
http://tinyurl.com/yb4ptsu
Und „fröhlich“weiter gehts,
startend hier:
http://tinyurl.com/y97nmfj
——————–
„Allmählich sollten Sie einsehen, dass Sie genau der gleichen psychischen Fehlsteuerung unterliegen, die alle Verschwörungstheoretiker eint, nämlich der Schaffung einer unüberbrückbaren Kluft zur Realität.
Es kommt ja schließlich nicht von ungefähr, dass man einen der Ihren (”Dr.” Wolfgang Thüne) unwidersprochen als “Geisterfahrer der Wissenschaft” (Leuschner) titulieren konnte.
Wenn Sie ernst genommen werden wollen, dann sollten Sie sich endlich von diesen Geisterfahrern, zu denen auch E. G. Beck, Singer, Ball, Gerlich, Weber u. v. a. gehören, distanzieren.“
——————-
„Um zu wissen, dass Thüne, Beck und Konsorten Spinner und Rosstäuscher sind, dazu brauche ich nicht unbedingt Herrn Leuschner, zumal sein Verriss von Thüne schon ein paar Jahre alt ist (hat sich aber nichts an der Berechtigung geändert, Thüne spinnt nach wie vor)“
——————-
„Die AGW-Negierer sind ein Haufen von Wirrköpfen, nicht anders als die vielen anderen Verschwörungstheoretiker auch. Ihre Lügen und Frechheiten richten sich wie bei allen anderen Verschwörungstheoretiker gegen die Erkenntnisse der seriösen Wissenschaft und stellen somit eine permanente Beleidigung menschlicher Intelligenz dar.“
——————-
„Und nur weil Todesstrafe und Kreationismus in Europa eine eher untergeordnete Rolle spielen, fallen hier die AGW-Negierer mit solchen Extrempositionen weniger auf. Politisch gesehen zählen aber auch hierzulande eher zu den Geisterfahrern aus dem rechten Spektrum. Denn ihre Unfähigkeit, mit der Realität klar zu kommen, wirkt sich natürlich auch in der politischen Positionierung aus. “
——————-
„Singer und seine Komplizen befinden sich in bestem Einvernehmen mit den ultrarechten Republikanern im Dunstkreis eines gewissen Senators Imhofe.
In Deutschland fehlt eine entsprechende Ultrarechts-konservative Gruppierung. Mag sein, dass aus diesem Grunde eine ganze Reihe von AGW-Negierern (Beck, Jaworowski, Böttiger, u. a.) mit den Polit-Chaoten Lyndon LaRouche (EAP, Büso, Fusion-Magazin) paktieren. Jedenfalls sind die Verbindungen unübersehbar. “
——————-
„Darin unterscheiden sie sich von den AGW-Negierern, die trotz überwältigender Gegenbeweise an ihren krankhaften Vorstellungen festhalten. Insofern rechnet man die katholische Kirche nicht zu den Verschwörungstheoretikern, die AGW-Negierer, die Kreationisten, die Flat-Earther, die CIA-9/11-Apostel, usw., schon.“
[..]
„Die AGW-Negierer -sofern sie überhaupt zurechnungsfähig sind – haben diese Freiheit nicht, weil sie den Auftrag haben, das Problem Klima herunter zu spielen.“
——————-
„Wer ist schlimmer, die Holocaust-Leugner oder die AGW-Negierer?
In diesem Blog wird der Versuch unternommen, diese Frage zu beantworten:“
——————-
„Tatsache ist aber, dass die AGW-Negierer den Versuch unternehmen, eine notwendige Entwicklung aus vordergründigen Motiven zu verzögern. Sofern sie dies wider besseres Wissen tun – und das trifft für eine ganze Reihe von ihnen zu – tragen sie in der Tat die Verantwortung für ihr Handeln, der Rest sind nur nützliche Idioten der Energieindustrie.
Würden die Menschen massenhaft auf diese perfide Clique hereinfallen, so müsste man sich ernsthaft Gedanken über geeignete Gegenmaßnahmen machen, die m. E. aber hauptsächlich in einer verbesserten Information der Bevölkerung bestehen sollten. “
——————-
„Insofern reicht es völlig aus, sie durch Verweis auf die Fakten immer wieder ad absurdum zu führen und ihnen ihre moralische Verwerflichkeit vor Augen zu führen.
Wer wie die AGW-Negierer ständig mit Lug und Trug arbeitet und die Internet-Community für dumm verkaufen will, kämpft ohnehin vor vornherein auf verlorenem Posten. “
========================
Soweit so schlecht,
Ich habe das und wollte das hier auch als Dokumentation hinterlegt haben, damit es nicht verloren geht, zum Einen, zum Anderen, um einigen der hier anwesenden „Hardliner“ klar zu machen, wohin die Reise gehen soll, wenn Schellnhuber und seine zur großen Transformation umgenannte „Kuturrevolution“ mal greift und die angestrebte Eine-Welt Regierung aktiv wird. Solch Typen wie der Vennecke sind die Speerspitze der Grün-Sozialen Ökodiktatur.
DDR, SU und DE vor 1945 lassen grüßen, so hat man dort Regimekritiker und Andersdenkende auch schon verfolgt.
Wohlgemerkt, das sind alles Zitate des Pseudo „Vennecke“.
Daß unter Klusmann geschriebene Texte Gauner Gangster, Lügner und Betrüger auftauchen, ist angesichts der Entwicklung diese Herrn schon kaum noch eine Erwähnung wert wie mir scheint.
After three decades of continual increase, the mean Earth temperature has been decreasing steadily since 2002, as precise satellite measurements show. As a result, the steady rise in sea level has stopped since 2005.
World climate is a regular quasi-periodic phenomenon [driven by solar activity with a period of 70 – 80 years (Gleissberg cycle)] that lags the mean Earth rotational velocity by 6 years. Because of this regularity, it can be stated with absolute certainty that the mean Earth temperature will continue to decrease until 2040.
The Close Correlation between Earth’s Surface Temperature and its Rotational Velocity as well as the Close Correlation between the Planetary Orbital Periods and the Periods of the Solar Cycles Prove that Climate Changes are Driven by Galactic Gravitational Waves
1. There exists an extremely close correlation between the changes in the mean global temperature and the small changes in the rotational velocity of the Earth (see Fig. 2.2 of http://www.fao.org/DOCREP/005/Y2787E/y2787e03.htm), which has been ignored by the mainstream climatologists, and leaves little room for a human influence on climate. This close correlation results from the action of galactic vacuum density waves on the Sun and on the Earth (see http://www.icecap.us/images/uploads/Lobert_on_CO2.pdf ).
2. In the post of March 24, 2009 in Google „Gerhard, pakteahouse“ it is shown that the orbital periods of the planets of the Solar System provide further evidence for the existence of super-Einsteinian gravitational waves and of their action on all celestial bodies of the Solar System. All periods are very close to integer fractions and integer multiples of the periods of the Hale (22.14 years) and the Gleissberg (78 – 84 years) solar cycles.
@Osram #26
Zitat von Ihnen:
„Ihren ersten Beitrag verstehe ich nicht. Was soll ich? Die Gegenstrahlung zu messen ist eine sehr komplizierte Angelegneheit, denn der Trend unter sehr viel Rauschen versteckt ist, man muss schon höllisch aufpassen. Von Rolf Philipona und seinen Kollegen sind dazu einige Paper erschienen, einfach mal danach suchen.“
Betrifft wohl mein Posting # 17
Wie kommen Sie darauf, daß ich von der Gegenstrahlung spreche ?
Ich habe ganz explizit von der Globalstrahlung gesprochen, kennen Sie etwa den Unterschied nicht, und blasen sich hier dermaßen auf, oder ist es Ihrer Leseunfähigkeit zu verdanken, die ein derartiges Aufblasen Ihrerseits auch nicht rechtfertigen würde ?
Sehr geehrter Herr Osram,
bleibt nicht auch als Unsicherheit das „Cloud Radiative Forcing“? Die Modell simulieren doch eigentlich Wolkenbedeckungsunterschiede zwischen 57% und 79%. (IPCC AR table 2.6). Das sind ja auch so ca. 1-2K.
Mit freundlichen Grüßen
Günter Heß
Liebe Comments-Leser,
kennt jemand denk Wortlaut der Latif-Rede?
Alle tun so als ob er die bisherigen Ergebnisse des IPPC rückgängig machen würde. Das ist keinesfalls so.
Die Meldung ist übrigens schon 1 Jahr alt (http://www.focus.de/wissen/wissenschaft/klima/forschung-und-technik-die-erderwaermung-macht-pause_aid_311100.html )
Aus dem Interview geht hervor, dass sich an den langjährigen Vorhersagen nichts ändert.
Gruß Ged
Lieber Herr NB,
Sie schreiben:
„Wieso glauben sie, dass diese Bedingungen „gesichertes Wissen“ sichern würden und was wäre, wenn es keine Aussage unter diesen Randbedingungen gibt? Was ist also, wenn die Wissenschaft eine Antwort liefert, die Sie nicht verstehen können, die aber innerwissenschaftlich als Positivindikation bewertet wird?“
Meine Bedingungen:
„Als gesichertes Wissen, würde ich experimentelle Messergebnisse zählen, oder eindeutige Zuordnungen aus Computermodellen, die in den „Control Runs“ eine Drift kleiner als 0.2 K über das 20. Jahrhundert zeigen“
sind die Bedingungen, die das IPCC benutzt hat, um die 14 Computermodelle auszuwählen, die die globale Mitteltemperatur 20. Jahrhundert mit „anthropogenic forcing“ simuliert haben. Ich dachte, das sei eine gute und innerwissenschaftlich akzeptierte Wahl.
Weiterhin dachte ich, dabei wäre der Temperaturbeitrag des CO2 in Kelvin herausgekommen. Ich habe aber diese genaue Zahl mit Fehlerbalken noch nicht gelesen. Ich wüßte sie halt gerne Schwarz auf Weiß und in „peer-reviewed literature“.
Mit freundlichen Grüßen
Günter Heß
P.S. Da ich Naturwissenschaftler bin würde ich eine innerwissenschaftliche Antwort schon verstehen glaube ich, da machen sie sich mal keine Sorgen. Außerdem möchte ich ja nur eine Zahl in Kelvin und das Paper das zeigt, wie die Zahl bestimmt wurde. Ich lasse es mir zur Sicherheit dann von einem befreundeten Klimatologen erklären, den ich schon öfter in Chemie, Mathematik und Physik beraten habe. Er hat übrigens diese Frage noch nicht beantwortet
Daß Ihr Euch alle über das CO2 so aufgregt, Arrhenius hat sich eh geirrt ;.)
„It is widely believed that Svante Arrhenius correctly predicted
the rise in temperature. Perhaps you are unaware that he did this
based on seriously flawed spectroscopic data.“
http://members.casema.nl/errenwijlens/co2/arrhrev.htm
@NB
„Und zweitens weiss man eh aus dem Physikunterricht, dass die Physikexperimente meistens nicht richtig klappten.“
ein schöner Satz:
Chemie ist das, was knallt und stinkt, Physik ist das, was nie gelingt.
Erinnert mich an Rahmstorfs uä Klimaexperimente in den Modellen.
@NB,#36
Genau das meine ich Herr NB, was Sie im letzten Satz mir unterstellen, vielleicht war ich bisher zu ungeschickt in meinen Versuchsreihen. Das können erfahrene Praktiker nicht ausschließen. Deshalb fordere ich nun auch Sie auf, wie zuvor Osram, mir den geschickten Wissenschaftler oder ein Institut zu nennen, bei denen so ein Versuch je gelungen ist. Am besten Sie geben hier eine genaue Ablaufbeschreibung, damit jedermann den Versuch durchführen und nachprüfen kann. Ein wichtiger Grundsatz der Wissenschaft ist, dass Gesetze überall überprüfbar und nachvollziehbar sein müssen mit denselben Ergebnissen. Aber so einen Experimentator haben auch Sie nicht genannt, anscheinend ist es eben noch niemandem gelungen, den Treibhauseffekt von C02 in diesem geringen ppm Bereich zu zeigen. Solange dieser Nachweis nicht gelingt, fehlt der Theorie schlichtweg der Beweis und es gilt mein Postulat, das ich auch in meinen Scripten so vertrete: C02 ist bei diesen geringen Mengen im ppm-Bereich kein Treibhausgas. Erst die Dosis macht das Gift.
Deshalb kann das anthropogene C02, eh nur 3% vom Gesamtausstoß, auch nicht zur Klimaerwärumung beigetragen haben. Es wird ebenso in die Kreisläufe des Auf-und Abbaus eingebunden wie die restlichen 97%.
Die Erwärmung seit der kleinen Eiszeit kommt von der Sonne. Gott sei Dank wurde es wärmer, denn diese kleine Eiszeit war die Klimakatastrophe für die damaligen Menschen.
Lieber Herr Kowatsch,
ich denke, Sie haben eine falsche Vorstellung vom Treibhausmechanismus. Der Mechanismus beruht doch nicht darauf, dass man CO2 in eine Dose tut und dann wird es wärmer darin! Um den Effekt am Besten im Experiment nachzuvollziehen, machen Sie sich die Fuktion eines Wärmeschildes klar. Oder fragen Sie einen (sehr-sehr kompetenten) Fensterglaser nach dem Mechanismus, Fenster durch ein Isolationsgas zu isolieren. Dieses Gas – CO2 wird es wohl nicht sein, sondern ein stärker absorbierendes inertes Gas – wirkt ähnlich wie das CO2 in der Atmosphäre.
Und noch dies: beim Experimentieren kann man jede Menge Unsinn fabrizieren, inbesondere dann, wenn man eigentlich nicht so genau weiss, was man tut. Und zweitens weiss man eh aus dem Physikunterricht, dass die Physikexperimente meistens nicht richtig klappten. Also, ein „Negativergebnis“ heißt nicht, dass es etwas nicht gibt, sondern i.d.R., dass der Experimentator zu ungeschickt war und irgendein Nebeneffekt störte.
Ich finde es gut, dass wir einen „Osram“ unter uns haben, denn er ist bereit offen zu diskutieren und Stelllung zu beziehen. So eine Diskussion findet seit Jahren in den Medien nicht mehr statt, sie haben sich gleichgeschaltet und verdrehen Fakten, um z.B. die sich abzeichnende Abkühlung als Erwärmung darstellen zu können.
Ich verstehe Herrn Osram gut, denn ich war früher ein glühender verfechter der C02-Treibhaustheorie, als Mitglied in allen Umweltorganisationen habe ich viele Umweltaktivitäten auf Ortsebene mit druchgeführt.
Wer sich in die Materie einarbeitet, der entdeckt irgendwann auch die Fakten. Mir ist es niemals gelungen, die Treibhauswirksamkeit von C02 in einem Versuch zu zeigen. Es geht nicht um 100% C02-anteil im Versuch, sondern um einen realistischen Versuch im parallel zum jetzigen Anteil von 0,035% als Vergleichprobe.
Also lieber Osram, vielleicht ist es dir schon gelungen oder du kennst mir einen Wissenschaftler nennen, der den Treibhauseffekt von C02 im Promille und ppm Bereich zeigen konnte. Ganz konkret: Eine Erhöhung von C02 um 10% ergibt soviel Erwärmung, eine Anteilserhöhung von C02 um 20% ergibt soviel Kelvinerhöhung gegenüber Normalluft usw. Eine Erhöhung um 100% also auf 0,07% C02-anteil ergibt die vorhergesagten 2,5 bis 4,5, dann 5 und jetzt schon 7K Erhöhung und den Hitzetod der Erde. Mir sind solche Versuche immer misslungen. Bitte, bitte, lieber Osram, nenne mir den Wissenschaftler oder das Institut, das mir eine saubere Treibhauserwärmungskurve von C02 in diesen ppm Bereichen vorweisen kann. Du brauchst nicht sofort zu antworten, ich habe auch Jahre lang gesucht.
Freundlichst: Josef Kowatsch
Lieber Herr Hess,
„Als gesichertes Wissen, würde ich experimentelle Messergebnisse zählen, oder eindeutige Zuordnungen aus Computermodellen, die in den „Control Runs“ eine Drift kleiner als 0.2 K über das 20. Jahrhundert zeigen“
Wieso glauben sie, dass diese Bedingungen „gesichertes Wissen“ sichern würden und was wäre, wenn es keine Aussage unter diesen Randbedingungen gibt? Was ist also, wenn die Wissenschaft eine Antwort liefert, die Sie nicht verstehen können, die aber innerwissenschaftlich als Positivindikation bewertet wird?
PS: Herrn Limburgs Kommentare erfüllen Ihre Kriterien z.B. nicht. Abgesehen davon, dass sie sowieso nicht wissenschaftlich abgesichert sind.
Sehr geehrte Mitdiskutierende,
Ich habe in dem Forum “Readers Edition” folgende Fragen gestellt und noch keine Antwort erhalten und möchte sie auch hier stellen.
Gibt es in diesem Forum jemanden der zu folgendem Sachverhalt gesichertes Wissen zitieren oder vorweisen kann: Wie groß war der Anteil des Menschen, gemessen in Kelvin, an der Temperaturerhöhung von ca. 0.8K im 20 Jahrhundert?
Wie groß war der Anteil der anthropogenen CO2 Emission, gemessen in Kelvin, an der Temperaturerhöhung von ca. 0.8K im 20 Jahrhundert?
Als gesichertes Wissen, würde ich experimentelle Messergebnisse zählen, oder eindeutige Zuordnungen aus Computermodellen, die in den „Control Runs“ eine Drift kleiner als 0.2 K über das 20. Jahrhundert zeigen.
Im Übrigen möchte ich mich Herrn Köcher anschließen und vorschlagen, das der eigene Name verwendet wird, dass nimmt die „ad hominem“ Argumente aus der Diskussion
Mit freundlichen Grüßen
Günter Heß
Der Wissenschaftler OSRAM erscheint in diesem Forum wie der Don Quijote der Klimakatastrophe, der von sich lauter Feinden umgeben sieht, die er vernichten muß. Ihm fehlt die wissende Gelassenheit und dadurch wirkt er unglaubwürdig und künstlich, wie es der Name OSRAM in Wirklichkeit auch ist.
In diesem Zusammenhang ist es zu empfehlen das Buch „2000 Jahre Weltuntergang“ von Rudolf Drößler zu lesen, in dem die die Weltuntergang-Szenerien der verschieden Kulturen in der Vergangenheit beschrieben werden. Auch früher wurden schon die prophezeiten Katastrophen teilweise von Wissenschaftlern begründet oder initiiert.
Der Wissenschaftler OSRAM wird wohl an seine wissenschaftlichen Kollegen in China vor 2500 Jahren gedacht haben, wenn er sagt, daß kurzfristige, überprüfbare Prognosen nicht möglich sind. Seine damaligen Kollegen als Astronomen hatten nämlich eine Sonnenfinster zu einem bestimmten Zeitpunkt vorausgesagt. Als das Ereignis nicht eintrat, verfügte der Chinesische Kaiser die Hinrichtung der Wissenschaftler samt ihrer Familien, weil sie unnötigerweise das ganze Volk in große Angst und Schrecken versetzt hätten.
Nüchtern betrachtet würde die Anwendung der Methode des Chinesischen Kaisers vor 2500 Jahren in der heutigen Zeit die Qualität von wissenschaftlichen Aussagen für die Zukunft erheblich steigen. Ein Nebeneffekt wäre, daß immer genügend Arbeitsplätze für nachstrebende Wissenschaftler vorhanden wären.
Ich wundere mich immer wieder, wie leichtfertig in Publikationen mit dem Begriff der „mittleren globalen Erdtemperatur“ gearbeitet wird, wobei so getan wird, als ob man diese durch Messungen genau ermitteln könne.
Das ist natürlich purer Unsinn, denn den Temperaturmittelwert der gesamten Biosphäre unter Einschluß von Atmosphäre und Meerestiefen wird kein Mensch jemals ermitteln können, weder jetzt noch in Zukunft, weil man dazu Abermilliarden von Temperaturmeßfühlern benötigen würde.
Man beachte, daß sich an einem beliebigen Tag an einem beliebigen deutschen Kirchtum in Abhängigkeit von Tageszeit, Sonneneinstrahlung, Windrichtung und -geschwindigkeit, Abschattung, Feuchtigkeit usw. Tausende von Temperaturen ermitteln lassen, die alle unterschiedlich sind. Und welche davon ist denn nun die „wahre Kirchturmtemperatur“?
Aber solche naheliegeden und physikalisch korrekten Gedanken zu diesem Thema werden in den Blogs von FOCUS (u. a.) konsequent unterdrückt. Und das heißt, daß deren Redakteure genau wissen, daß sie betrügen und einen Schwindel publizieren.
Erstaunlich, welcherlei Blüten Anonymität treiben kann.
Wie Herr Frey schon schreibt, ist Hass ein schlechter Berater. Der wissenschaftliche Wert von Beiträgen bemisst sich m.E. vor allem nach Folgendem:
1. Überdenken der Konsequenz des eigenen (Gegen-)Arguments
2. Schweigen auf konkrete Nachfragen.
3. In sich stimmige Argumentation.
So hat Herr Prof. Lüdecke sehr wohl den korregierten Wert von 0,038% CO2-Gehalt der Luft anerkannt. Was der Anonymus nicht erkennt, ist, dass er damit den Alarmisten noch mehr Wind aus den Segeln nimmt.
Dass auf nachgewiesene Fehler und Unklarheiten eines Anonymus selbst auf Nachfrage keine Antwort gegeben wird, lässt die Wissenschaftlichkeit der Diskussion leiden. Dass den von Prof. Lüdecke angegebenen Schwankungswerten solche des IPCC gegenübergestellt werden, sollte selbstverstänlich mit einer Quellenangabe und – wiederum – von der Konsequenz her dargestellt werden. So würde klar, ob hier lediglich um des Kaisers Bart oder um handfeste Unterschiede gestritten wird.
Und zuguterletzt wäre es hilfreich, in sich stimmig zu argumentieren. Denn wenn einer Betrachtung von 10-Jahres-Zeiträumen die Eignung für die Erstellung von Prognosen abgestritten wird, wie in aller Welt will man dann die „Hockeystick“-Hypothese begründen? Damit, dass ein 20-Jahre-Zeitraum zweifelsfreie Daten liefere? (Zunächst ungeachtet der Fragen zur Qualität der Computermodelle, welche selbst nach Eingabe zufälliger Daten stets einen „Hockeystick“ auswerfen.)
Ich erlaube mir abschließend anzuregen, Beiträge unter dem bürgerlichen Namen abzuliefern, was deren Qualität wenigstens hinsichtlich Polemik und Pöbelei deutlich zuträglich sein dürfte.
Herzlichst
M. Köcher
Ich bin auch kein Wissenschaftler, sondern ein Laie, der sich nun seit mehr als 3 Jahren mit diesem Thema intensiv befasst. Nach Sichtung und laufender Beobachtung der Veröffentlichungen weltweit komme ich zu der Überzeugung, dass seitens der Politik das Thema CO2 dogmatisch missbraucht wird und offensichtlich durch nachweisliche Fälschungen von Daten (z.B.Hockeystick) untermauert wird.
Weitere Details erspare ich mir, weil sie sich allein schon damit auf wissenschaftlicher Ebene selbst disqualifiziert haben.
In jedem Forum, wo kritische und realistische Äußerungen überhaupt zugelassen werden, versuchen die Anhänger dieser Klimareligion – ich nenne sie Klirus – die Diskussion jedesmal mit Detailfragen auf Nebenschauplätzen zu lenken. So nun auch hier.
Wer möchte, kann gerne darauf eingehen. Zur Hauptsache des AGW selbst sagen diese Diskussionen in der Regel nichts aus.
Deshalb fordere ich an dieser Stelle die Anhänger des Klirus (Osram und Co) auf, bitte den Beweis für die AGW zu liefern.
Solange Sie das nicht können und offensichtlich andere Faktoren eine wesentlich größere Rolle spielen, können Sie natürlich Detailfragen diskutieren mit wem Sie wollen. Dem interessierten Leser werden Sie damit nicht vom eigentlichen Hauptthema abbringen und das ist im Artikel von Lüdecke nun mal die Aussage von Latik, dass es kälter wird, und das vermutlich für mehrere Jahrzehnte. Das hat er zwar schon im letzten Jahr geäußert, aber nicht an so exponierter Stelle in einer der Gremien des Klirus.
Wenn sich dann nun diese Aussage auch noch mit der Korrelation zwischen Temperatur und Sonnenaktivität, El Ninja etc übereinstimmt und die CO2 Konzentration sich ums Verrecken nicht genauso verhalten will, sondern munter weiter steigt, ist Latifs Aussage sehr plausibel und nicht nur für Laien mehr als glaubhaft.
Ich bin sicher, es werden sich im Klirus mehr und mehr dieser Meinung anschließen. Allein schon, um nicht als Depp dazustehen.
Also, diskutieren Sie ruhig weiter Ihre Nischenprobleme oder monieren Details in Kommentaren.
Wir konzentrieren uns auf die Hauptsache, und da ist es sehr wahrscheinlich und auch sehr beruhigend, dass der Klirus mit seinen wissenschaftlichen Simulanten in absehbarer Zeit wohl mehr als baden geht.
http://www3.ndr.de/media/gluehbirne114.html
Lieber Herr Gans,
Ihren ersten Beitrag verstehe ich nicht. Was soll ich? Die Gegenstrahlung zu messen ist eine sehr komplizierte Angelegneheit, denn der Trend unter sehr viel Rauschen versteckt ist, man muss schon höllisch aufpassen. Von Rolf Philipona und seinen Kollgegen sind dazu einige Paper erschienen, einfach mal danach suchen.
Vielen Dank für die Links. Sie bringen Licht ins Dunkel und natürlich hat Lüdecke auch hier mal wieder sich eine scöne Geschichte zusammengedichtet.
Ersteinaml spielt die interne Variabilität nur für sehr kurze Klimaprojektionen eine grosse Rolle. Für lange Zeiträume bis 2060 oder 2100 jedoch nicht, folglich hat das keine Effekt auf die IPCC Projektionen. Worauf es ihn ankommt ist es die interne Variabilität besser zu verstehen und so kurzfristige Klimaprojektionen (noch ein ziemlich neues Thema, diese Problemtaik ist nicht neu) zu verbessern, also für 10 oder 20 Jahre. Nochmal: Das ändert an der Gesamterwärmung nichts, nur ist es eben nicht so einfach wie die Skeptiker und viele Reporter denken, dass jedes Jahr wärmer als das vorherige sein muss (die SKeptiker sind schon bei Monaten angekommen…), sonst sei die Erwärmung widerlegt. Es ist eben viel intere Variabilität im Spiel. Folglich erledigen sich auch Lüdeckes Speuklationen.
Sehr zu empfehlen seine Präsentation also, am besten das Audio File mit der Präsentation gleichzeitig schauen.
Und lasset mich noch hinzufügen:
0,38% CO2, oder 0,038% CO2… irrelevant. Die Dosis ist so oder so zu gering. Natürlich sind’s 0,038%, wovon der Mensch etwa 0,377% produziert. Wir produzieren etwa 1% der Insektenatmung, wenn wir annehmen, daß alle Insekten die Größe einer Drosophila haben (kann man selbst nachrechnen, ist eigentlich ganz einfach.) Allerdings sind viele Insekten weit größer, somit produziert der Mensch de facto nicht einmal 1% der Insektenatmung.
Wie können also unsere 0,377% CO2 ein „global warming“ auslösen?
Die Konzentration ist zu gering.
Auf der Venus geht’s, na klar, mit den Massen. Aber mit dem bisschen, das wir haben? Also bitte…
Grundlage der Toxikologie: alles ist prinzipiell giftig, es hängt nur von der Dosis ab.
Aber da fällt mir auf: warum werden in den Medien und von der Politik niemals diese Prizentzahlen erwähnt? Warum heißt’s immer „so und so viele Tonnen CO2“?
Ganz einfach: wenn jemand die Prozente sieht, dann kann man nicht mehr an den „Treibhauseffekt“ glauben, denn die Konzentrationen sind viel zu gering.
Osram
„However an ensemble of 17 latest generation climate models estimates an increase of only about 2% K?1 in precipitation intensity, about one order of magnitude smaller than our value, suggesting that the risk of extreme precipitation events due to global warming is substantially greater than that estimated by the climate models.“
Climate models.
Modelle.
Computerprogramme
Programme die dazu dienen ein nicht-lineares chaotisches System vorherzusagen, und die oft nicht einmal auf dem neuesten Stand der Technik sind.
Man kann ein nicht-lineares chaotisches System nicht prognostizieren. Das ist unmöglich. Es geht nicht.
Es gibt Menschen, die beschäftigen sich ihr ganzes Leben lang mit solchen Systemen. Diese Leute nennen sich „Chaos-Theoretiker“.
Ein Chaos-Theoretiker kann über diese „Klimamodelle“ nur lachen.
Wenn jemand behauptet, er könne das Klima mit einem Computerprogramm vorhersagen, dann lügt er entweder, oder er hat keine Ahnung vom Verhalten nicht-linearer Systeme, was im Endeffekt auf’s selbe hinausläuft.
Die Programme sind irrelevant.
Hallo alle zusammen,
bevor ich anfange, Art und Stil dieser Diskussion zu kommentieren, möchte ich noch einmal betonen, dass ich kein Klimaforscher bin, sondern Schriftsteller (und interessierter Laie). Als solcher braucht man die Fertigkeit, zwischen den Worten zu lesen. Die Fakten, um die es hier geht; die Zitate, die man sich hier um die Ohren haut – sei es, wie es sei. Aber was mir auffällt: Bei Schreibern/Schreiberinnen wie Osram lese ich zwischen jedem Wort Hass! Hass, Polemik und Angriffslust. Es macht wirklich keinen Spaß, solche Texte zu lesen. Warum ist das so? Wie gesagt, der Wortsinn geht an mir vorbei! Hass und Polemik verbreitet aber nur jemand, der betroffen ist. Daraus ziehe ich persönlich für mich den Schluss, dass Sie, Frau/Herr Osram (und andere), indirekt nur unterstreichen, was Prof. Lüdecke schreibt! Haben Sie daran mal gedacht?
Bei Prof. Lüdecke lese ich etwas ganz anderes zwischen den Worten, nämlich Freude und Spaß! Seine Texte machen Spaß zu lesen! Könnte es daran liegen, dass man es ihm so einfach macht, die Behauptungen der Alarmisten auseinander zu nehmen? Gleiches gilt übrigens für die Texte von Herrn Limburg! Daher kann ich beide Herren nur auffordern: weiter so! Auch wenn meine Fachkenntnis um Einiges unter der dieser beiden Herren liegt!
Chris Frey
Die Powerpoint Präsentation von Latif:
http://tinyurl.com/m2ujmg
Die Rede aller Teilnehmer, Latif ab 23:39:
http://tinyurl.com/lzmofr
Ab 39:30 kommt Latif zum Ende.
Gemeinsame Quelle:
http://tinyurl.com/kmahdd
Mein Gott, welch ein Gebrüll. Mir tun schon die Ohren weh. Deswegen gehe ich so ungern wählen: Die Politiker benehmen sich auch immer, wie im Kindergarten.
Lieber Osram (und NB, und wie sie eben alle heissen). Sie haben nun allen bewiesen, dass Sie allwissend sind, und dass ausser Ihnen sowieso niemand Ahnung hat (Diplom hin, Promotion her). Da Sie ja der Meinung sind, dass Sie zum grossen Teil der „rechthabenden Menschen“ auf dem Planeten gehören und die Milliarden bereits ausgegeben werden, frage ich mich, was dieses Gezeter soll. Je lauter Sie werden, desto mehr verlieren Ihre Worte an Glaubhaftigkeit. Wirklich! Ist bei den Politikern nicht anders. Die bringen auch immer Argumente, bei denen man aufmerksam zuhört, ja sogar denkt: „Der Mann hat recht“… und dann wird wieder alles zunichte gemacht. Glauben Sie mir: Je mehr Sie hier schreiben, desto mehr Menschen glauben den Argumenten von EIKE. Und wissen Sie auch wieso? Ganz einfach: Jeder glaubt, dass höhere Interessen Ihr Handeln motiviert, so viel und so polemisch in diesem Blog zu posten.
Zeigen Sie Grösse! Freuen Sie sich, dass Sie schlauer sind als diese „kleine“ Schar von Skeptikern (Das geht auch ohne Geschrei). Bush hätte sich unglaubwürdig gemacht, wenn er andauernd wiederholt hätte, dass 9/11 keine False-Flag-Operation war.
Zum Schluss: So oder so, Sie sind auf jeden Fall die Gewinner. Gehen wir davon aus, dass es die Menschheit bis 2050 nicht schafft, den CO2-Gehalt in der Atmo zu senken (wovon ich schwer ausgehe) und wir in der Treibhaus-Hölle „Erde“ schmoren, dann können Sie mit breiter Brust verkünden: „WIR (LATIF, SEIN C64 UND ICH) HABEN ES DOCH GLEICH GESAGT!“. Naja – und wenn der Weltuntergang dann doch nicht eintritt, nun, dann sind Sie fein raus, weil Sie sowieso keine Sau kennt. Lüdecke, Limburg, Puls und diverse andere haben es da schwerer.
@Osram
„- zur kosmischen Strahlung gibt es eine Menge Studien. Selbst wenn es diesen möglichen Zusammenhang gibt (die Wirkung des Treiausgase ist um ein vielfaches besser bekannt),“
Was der Bauer nicht kennt, dann ist es eben der CO2 Treibhauseffekt.
Klären Sie doch in Ihrer Allwissenheit einfach mal, inwieweit zunehmende globale Globalstrahlung zu erklären ist und prüfen Sie darüber inaus, ob da ggfs. ein Zusammenhang bestehen kann mit einer Erwärmung in der Vergangenheit.
Für DE läßt sich daß wunderbar nachvollziehen mit den Daten und Graphiken der Säkularstation in Potsdam.
Savoyen, lesen wäre ein großer Vorteil. An diesem Artikel habe ich konkret auszusetzten:
– Ob sich Erde abkühlt lässt sich derzeit nicht beantorten, da die Unsicherheit des Trend größer als der Trend selber. Rechnen Sie selber nach.
– Das aktische Meereis nimmt nicht „allmälich zu“, sondern dramatisch ab. Was ist hieran nicht klar: http://www.scienceblogs.de/primaklima/IARCNSICSDecTrends.jpg ? Jeder der die Daten neutral untersuchen würde, käme zu diesem Ergebnis. Lernt man als Strömungtechniker die Trendanaylse nicht? Scheinbar geht man da noch nach Augenmass vor.
– zur kosmischen Strahlung gibt es eine Menge Studien. Selbst wenn es diesen möglichen Zusammenhang gibt (die Wirkung des Treiausgase ist um ein vielfaches besser bekannt), ist dieser Effekt an der gegenwärtigen globalen Erwärmung kaum mitverantwortlich, ja vernachlässigbar. Nachzulesen in den Papers von Sloan, Wolfendale, Pierce, Lockwood, Adams, Fröhlich und anderen Autoren.
Lieber Herr Osram,
„Auf S. 8 behaupten Sie, dass sich die Erde seit 9 Jahren abkühle. Erstaunlich, ein Physik-Professor sollte doch eigentlich wissen, dass über einen so kurzen Zeitraum bei den Daten die Unsicherheit grösser als der Trend ist. Wie können Sie das seriös behaupten, die Erde kühle sich ab?“
Ich möchte mich anschließen. Mit solchen dilettantischen Thesen entlarvt man mathematische Unfähigkeiten oder niederträchtige Täuschungsabsichten.
Da wird einfach klammheimlich verschwiegen, wie das Niveau langfristig schon angestiegen ist.
Analoger Ulk mit dem Nordpolareis nur mit anderem Vorzeichen.
@ Alle
Ich warte schon darauf, dass die Klimatologen eine Kehrtwende machen und nun behaupten, CO2 sei an der Abkühlung schuld. Und eigentlich ist ja aus der Astronomie bekannt, dass Sonnen mit strahlenden Molekülen besser in der Lage sind, Wärme abzugeben als die ersten Sonnen, die nur Wasserstoff und Helium hatten (habe ich mal von Prof. Lesch (alpha centauri) gehört).
Und natürlich können die so-genannten Treibhausgase Wärme von der Erde ins Weltall abstrahlen. Daraus müsste sich doch prima eine neue Katastrophentheorie herleiten lassen.
Und es kommt noch besser: Alle Maßnahmen zur CO2-Reduzierung bleiben richtig. Kein Gerlich oder Thüne könnten nun mit dem 2. Hauptsatz der Thermodynamik kommen.
Dr. Martin Wehlan
@Osram
„Wer nicht in der Lage ist richtig zu zitieren, der kann die herrschende Lehrmeinung auch nicht ernsthaft angreifen.“
Es waren u.a. Shaviv, Veizer, Scafetta, West – und jetzt sogar Latif, die die herrschende Lehrmeinung in Frage stellen; Lüdecke hat nur den aktuellen Stand der ‚wissenschaftlichen Klimaforschung‘ zusammengefasst, der naturgemäß nicht mit der ‚ideologischen Klimareligion‘ um IPCC, Rahmstorf etc. übereinstimmt.
Aber wenn man jeden Artikel, der die eigene Ideologie hinterfragt, nur mit Schaum von dem Mund lesen kann, verliert man schnell den Blick für solche feinen Detailunterschiede.
Womit wollen Sie die ‚Unfähigkeit‘ aller Kritiker des AGW-Dogmas als nächstes festmachen: an der Anzahl der Rechtschreibfehler?
Vielleicht versuchen Sie es einfach mal mit einem ‚inhaltlichen‘ Widerspruch zu dem Artikel – wäre mal was Neues, aber vielleicht nicht der schlechteste Ansatz 🙂
Herr Lüdecke, ich möchte ihren obigen Artikel noch positiv verstärken, indem ich 2 Zahlen korrigierend verschärfe: Sie schreiben, dass die C02-Konzentration in den letzten 100 jahren um 0,008% zugenommen hat. In Wirklichkeit ist es aber weniger. Unser bekannter Herr Ernst Beck wurde am Wochenende fertig mit seinen historischen Auswertungen von C02-Einzelmessungen. Dabei hat er über 100 000 C02 Messungen seit 1826 heranzgezogen. Im 19.Jahrhundert lag der C02-Durchschnitt bei 325ppm. Also keinen C02-anstieg von 0,008% in 100 Jahren, sondern nur 0,006% in 190 Jahren.
(hoffentlich ohne Tippfehler)
Seit 2 Jahren ist die Eisfläche am Nordpol von 4,1Mio km2 auf 5,1 Mio km2 gestiegen. Das ist eine Zunahme in 2 jahren um 25% und besorgniserregend -Messdatum immer der 12.September über Satelliten- Wenn diese Meldung auch vollkommen verblümt in den Tageszeitungen stand, dürften die eiskalten Tatsachen den Treibhäuslern und Katastrophentrommlern aber nicht entgangen sein.
Ich bin mal gespannt, welche Glaubenssätze sie nun in ihre Religion einbauen werden, um weiter mit dem Fegefeuer drohen zu können. Schließlich werden sie wohl kaum auf den neuzeitlichen Ablaßhandel mit den C02-Kontigenten verzichten. Die betreiben nicht science, sondern eine Art scientology. Das sind Stehaufmännchen.
@Osram
Ich denke nicht, daß die Irrtümer Lüdeckes irgendwo kostenwirksam registriert wurden, ganz im Gegensatz zu dem Unheil, was die CO2 Vermeidungsirrungen uns und auch der Welt kosten.
Vom Ansehen der Wissenschaft ganz zu schweigen, zumindet was diese Regierungs-Wissenschaftler angeht, na gut, um die mach ich mir keine großen Sorgen, die haben eh schon geloost, noch tiefer kann man nicht fallen.
Herr Osram hat sich wohl vertan, denn bei den Veröffentlichungen des IPCC als rein politische Institution der UN handelt es sich doch dementsprechend wohl mehr um die herrschende politische Lehrmeinung.
Osram hat vollkommen recht.
Er spricht richtigerweise von „herrschender Lehrmeinung“.
Das die mit unabhängiger Wissenschaft in dem Bereich schon lange nichts mehr zu tun hat, weiss nun wirklich jeder, der mal etwas über den Tellerrand der deutschen Medien hinausgeschaut hat.
Wir sollten uns aber lieber auf diese unabhängige Wissenschaft beziehen, und die sieht nun doch ganz anders aus.
Mit dem Versuch, hier in kleinkarierter Form Zitatfehler anzuführen, schießt er doch ein Eigentor oder was sagt er zu den Fakten, in in der verkürzten Form für Entscheider wohl ganz bewußt verschwiegen werden.
Nun, so neu ist die Aussage von Latif nicht.
Schon im Mai 2008 gab es einen Bereicht in „Welt-online“, in dem er zu der abkühlenden Feststellung kommt.
http://www.welt.de/wissenschaft/article1968510/In_Europa_wird_es_demnaechst_kuehler.html#article_readcomments
In Nachgang gab es auch eine Erklärung von ihm, dass er seine Programme nachjustiert hat und nun tatsächlich die letzten 10 Jahre nachmodellieren kann.
Als Highlight gabe es dann doch noch die private Wette diesbezüglich mit unserem Freund Rahmstorf vom PIK, der tatsächlich mit 2.500 Euro gegen die Abkühlung hält.
Von der Höhe des eingesetzten Betrages darf man sicher auch auf das Vertrauen in die eigenen Vorhersage schließen.
Nun ist es mal wieder so weit, die Katastrophe wird nach hinten verschoben, weil bestimmte Meeresstömungen bisher nicht berücksichtigt wurden…
Eine wissenschaftliche Bankrotterklärung ist das aus meiner Sicht für alle Forscher, welche bisher die Ansicht vertraten „es sei alles wesentliche zum Klimawandel erforscht und gesichert“.
Damit stellt sich doch nun die Frage, wenn natürliche Schwankungen einen angenommenen massiven Temperaturanstieg (durch CO2 verursacht) nicht nur kompensieren, sondern sogar in Gegenteil verkehren können, was spricht dann eigentlich noch dagegen, dass auch die Erwärmung eine natürliche Ursache hatte?
Ich erinnere an die Forderung von Reichholf, wer irrt soll zahlen.
Das könnte teuer für das PIK und Schellnhuber werden, von IPCC ganz zu schweigen…..
;.)
Der ganzen „Bande“ soll es an den Kragen…