Neuen, während der vorigen Woche veröffentlichten, Daten zufolge, hat die Welt vor fast 16 Jahren aufgehört, sich weiter zu erwärmen.
Die Angaben, die unter Klimawissenschaftlern eine Debatte ausgelöst haben, enthüllen, dass es von Anfang 1997 bis August 2012 keinen nennenswerten Anstieg der globalen Temperaturen gegeben hat.
Dies bedeutet, dass das ‚Plateau’ oder die ‚Pause’ bereits genauso lange gedauert hat wie die vorhergehende Periode, während der die Temperaturen gestiegen sind, also von 1980 bis 1996. Davor waren die Temperaturen stabil oder sind etwa 40 Jahre lang leicht zurückgegangen.
Die neuen Daten, gesammelt von mehr als 3000 Messpunkten zu Land und zu Wasser, wurden in aller Stille im Internet veröffentlicht, ohne Medienfanfaren, und bis heute hat niemand davon berichtet.
Dies steht in scharfem Kontrast zur vorhergehenden Veröffentlichung von Zahlen vor sechs Monaten, die nur bis Ende 2010 gingen – einem sehr warmen Jahr.
Das Ende des Datensatzes damals bedeutet, dass man seit 1997 einen leichten Erwärmungstrend zeigen kann, aber im Jahr 2011 und in den ersten Monaten 2012 war es viel kälter. Folglich ist dieser Trend beseitigt worden.
Einige Klimawissenschaftler wie Phil Jones, Direktor der CRU an der University of East Anglia, haben die Bedeutung des Plateaus klein geredet mit der Begründung, dass 15 oder 16 Jahre eine zu kurze Periode seien, um daraus Schlussfolgerungen zu ziehen.
Andere widersprachen. Professor Judith Curry, Leiterin des Climate Science Department an der amerikanischen Eliteuniversität Georgia Tech, sagte der Mail on Sunday, dass es ganz klar sei, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.
Selbst Phil Jones räumte ein, dass er und seine Kollegen den Einfluss der ‚natürlichen Variabilität’ nicht verstünden – Faktoren wie langzeitliche Zyklen der Wassertemperatur und Änderungen der Sonnenstrahlung. Allerdings sagte er auch, dass er immer noch davon überzeugt sei, dass die laufende Dekade signifikant wärmer ausfallen werde als die beiden zuvor.
Uneinigkeit: Professor Phil Jones (links) von der University of East Anglia, bestritt die Bedeutung des Plateaus. Professor Judith Curry (rechts) von der Georgia Tech University hebt die Bedeutung hervor und sagt, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.
Der regulär erstellte Datensatz der globalen Temperatur hat die Bezeichnung Hadcrut 4, da er gemeinsam vom Hadley Centre des Met. Office und der CRU von Phil Jones veröffentlicht wird.
Seit 1880, dem Beginn der weltweiten Industrialisierung und dem Beginn der Datensammlung im globalen Maßstab hat sich die Welt um 0,75°C erwärmt.
Einige Wissenschaftler haben behauptet, dass diese Erwärmungsrate ohne drastische Einschnitte bei den Kohlendioxid-Emissionen erheblich zunehmen wird, was zu einer katastrophalen weiteren Erwärmung bis zu 5°C bis zum Ende dieses Jahrhunderts führen kann.
Die neuen Zahlen wurden zu der Zeit veröffentlicht, an der die Regierung klarstellte, dass es ihre eigenen Kohlendioxid-Verordnungen ‚verbiegen’ und neue Kraftwerke bauen werde, um drohenden Stromausfällen zu begegnen.
Auf der Konferenz der Conservative Party in der vorigen Woche hat der neue Energieminister John Hayes versprochen, dass ‚die hoch fliegenden Theorien von bourgoisen Linksakademikern nicht die Interessen der normalen Leute außer Acht lassen dürfen, die Treibstoff zum Heizen, sowie für Licht und Transporte brauchen – Energiepolitik für viele, nicht für wenige, kann man sagen – Ein Versprechen, dass die Wut grüner Aktivisten erregt hat, die Reduktionen der riesigen Subventionen für Windparks befürchten.
Betrügerische Wissenschaft kommt uns sehr teuer zu stehen
Hier folgen drei nicht so triviale Fragen, die Sie nicht im nächsten Quiz am Stammtisch finden werden. Erstens, um wie viel ist es auf der Welt wärmer geworden a) seit 1880 und b) seit 1997? Und was hat das mit Ihrer immer stärker steigenden Stromrechnung zu tun?
Die Antworten auf die ersten beiden Fragen könnten für Sie überraschend sein.
Seit 1880, dem Beginn fast weltweiter zuverlässiger Temperaturaufzeichnungen hat sich die Welt um etwa 0,75°C erwärmt.
Seit Anfang 1997 bis August 2012 ergibt sich jedoch aus den in der vorigen Woche veröffentlichten Daten ein Trend bei Null: Der Trend aus mehr als 3000 Stationen weltweit ist flach.
Überraschend: Die Nachricht, dass es auf der Welt seit 16 Jahren nicht mehr warmer geworden ist, kommt für Viele als eine Art Schock.
Nicht dass davon in den Medien in irgendeiner Form berichtet worden wäre, die sonst eifrig mit Klimadingen bei der Sache sind. Die Zahlen wurden ohne Aufhebens online gestellt, ohne begleitende Presseerklärung – anders als noch vor sechs Monaten, als sich noch ein leichter Erwärmungstrend gezeigt hat.
Die Antwort auf die dritte Frage ist vielleicht die Vertrauteste.
Ihre Rechnungen steigen, zumindest teilweise, wegen der ‚grünen’ Subventionen für die Industrie der erneuerbaren Energie, vor allem Wind.
Diese werden den normalen Haushalt etwa 100 Pfund in diesem Jahr kosten. Dieser Betrag dürfte stetig weiter steigen – und das, obwohl er nur aus einem einzigen Grund eingeführt worden ist:
wegen der weit verbreiteten Überzeugung, die von Politikern aller Couleur geteilt und schon den Grundschülern vermittelt wird, dass sich ohne drastische Einschnitte zur Reduktion von Kohlendioxid-Emissionen die globale Erwärmung mit Sicherheit bald erheblich beschleunigen und bis zum Ende dieses Jahrhunderts zu einer Katastrophe führen wird – könnte die Temperatur doch dann bis zu 5 Grad höher liegen.
Daher die Bedeutung der Antworten auf die ersten beiden Fragen. Die globale Industrialisierung während der letzten 130 Jahre hat nur einen relativ kleinen Unterschied gebracht.
Und für das durch das Parlament gepeitschte Gesetz, den CO2-Ausstoss des Landes bis zum Jahr 2050 um 80 Prozent zu senken, einem Projekt, dass Hunderte Milliarden kosten wird, ist die Nachricht von der seit 16 Jahren fehlenden Erwärmung so etwas wie ein Schock.
Damit stellt sich eine fundamentale Herausforderung der Hypothesen, die jedem Aspekt der Klimaänderungs- und Energiepolitik zugrunde liegen.
Dieses Plateau’ beim Temperaturanstieg bedeutet nicht, dass die globale Erwärmung an irgendeinem Zeitpunkt wieder einsetzen wird.
Abbildung: Die globale Erwärmung soll zum Teil durch das CO2-emittierende Verbrennen fossiler Treibstoffe verursacht worden sein. Diese Bild zeigt den Wrasen aus den Kühltürmen eines Kraftwerks. In den Medien oft und gern mit Rauch (die dünnen Rauchfahnen) aus den Schornsteinen verwechselt.
Aber einer zunehmenden Zahl von Klimawissenschaftlern zufolge zeigt es eher, dass die Computermodelle, die seit Jahren eine fortwährenden Untergang vorhergesagt haben und vom Met. Office und dem IPCC verwendet worden waren, falsch sind, und dass das Klima viel komplexer ist als die Modelle annehmen.
„Die neuen Daten bestätigen die Existenz einer Pause bei der globalen Erwärmung”, hat mir Professorin Judith Curry, Vorsitzende der School of Earth and Atmospheric Science at America’s Georgia Tech University gestern gesagt. Und weiter:
„Die Klimamodelle sind sehr komplex, aber sie sind nicht perfekt und unvollständig. Die natürliche Variabilität (der Einfluss von Faktoren wie langzeitlicher Temperaturzyklen in den Ozeanen und der Strahlungsfluss der Sonne) hatten erwiesenermaßen während der letzten zwei Dekaden eine Größenordnung, die den Treibhauseffekt übertrifft.
Es wird immer offensichtlicher, dass unser Beitrag zur Erwärmung seit 1980 sowie zukünftige Projektionen der Klimaänderung ein Überdenken der internen natürlichen Variabilität als Faktor von erheblicher Wichtigkeit erfordert“.
Von Professor Phil Jones, der sich vor drei Jahren im Zentrum des ClimateGate-Skandals wiederfand, wird normalerweise nicht erwartet, dass er ihr zustimmt. In zwei wichtigen Punkten hat er es aber doch getan.
Die Daten legen in der Tat ein Plateau nahe, räumte er ein, und ohne ein wesentliches El Nino-Ereignis – eine plötzliche dramatische Erwärmung des Südpazifik, welches unvorhersagbar auftritt und immer einen immensen Einfluss auf das globale Wetter hat – „könnte das auch noch eine Weile so weitergehen“.
Wie Prof. Curry räumt auch Prof. Jones des Weiteren ein, dass die Klimamodelle nicht perfekt waren: „Wir verstehen nicht vollständig, wie man Dinge wie Änderungen in den Ozeanen einbringt, und weil wir das nicht völlig verstehen, könnte man jetzt sagen, dass die natürliche Variabilität derzeit die Erwärmung unterdrückt. Wir wissen nicht, was die natürliche Variabilität macht“.
Und trotzdem besteht er darauf, dass 15 oder 16 Jahre keine signifikante Periode sind: Pausen derartiger Länge waren immer erwartet worden.
Dabei hat er schon im Jahr 2009 in einer durch ClimateGate bekannt gewordenen E-Mail an einen Kollegen gesagt: „Das Plateau, das sich bereits abzeichnet und von Wissenschaftlern diskutiert wird – unter dem Strich: der ‚Nicht-aufwärts-Trend’ muss insgesamt 15 Jahre andauern, bevor wir uns Sorgen machen“.
Aber obwohl dieser Zeitpunkt jetzt vorüber ist, hat er gesagt, dass er seine Meinung über die bedrohlichen Vorhersagen der Modelle nicht geändert hat: „Ich glaube immer noch, dass die gegenwärtige Dekade um 0,17 Grad wärmer ausfallen wird als die vorige, die wärmer war als die neunziger Jahre“.
Nur wenn das nicht der Fall sein sollte, würde er anfangen, sich ernstlich zu fragen, ob nicht irgendetwas noch Ausgeprägteres vor sich geht. Mit anderen Worten, aus der Periode von 15 Jahren, nach der er sich Sorgen machen würde, sind inzwischen 20 Jahre geworden.
Inzwischen ließen seine Kollegen am Met. Office nicht locker. Ein Sprecher sagte: „Die Wahl eines Start- oder Endpunktes im Kurzfristbereich kann sehr irreführend sein. Klimaänderung kann man nur aus multidekadischen Zeiträumen wegen der inhärenten Variabilität des Klimasystems ableiten“.
Er sagte, dass ein Andauern des Plateaus länger als 15 Jahre ‚unwahrscheinlich’ sei. Gefragt nach einer Vorhersage des Met. Office aus dem Jahr 2009 – dass drei von fünf aufeinander folgenden Jahren einen neuen Welttemperaturrekord erreichen würden – gab er keinen Kommentar. Da es keinerlei Anzeichen für einen starken El Nino im nächsten Jahr gibt, sind die Aussichten, dass dies so kommt, gering.
Warum all das von Belang ist, sollte offensichtlich sein. Jedes Quartal haben die Statistiken zur Wirtschaft und Modellaussagen zur zukünftigen Entwicklung massive Auswirkungen auf unser Leben. Sie lösen eine ganze Reihe politischer Reaktionen von der Bank of England und dem Schatzministerium aus, ebenso wie Myriaden von Entscheidungen durch private Industrien.
Und das, obwohl es seit dem Einbruch im Jahr 2008 offensichtlich geworden ist, dass sowohl die Statistiken als auch die Modellierung extrem unzuverlässig sind. Darum herum die Zukunft zu planen ist etwa genauso sinnvoll wie die Auswahl eines Hochzeitstermins drei Monate im Voraus nur aufgrund einer Wettervorhersage.
Nur wenige Menschen würden so dumm sein. Aber Entscheidungen mit weitaus größerer und teurerer Bedeutung aufgrund dieser Ergebnisse wurden und werden immer noch auf der Basis von Klimavorhersagen getroffen, nicht für drei Monate im Voraus, sondern für das ganze kommende Jahrhundert – und das trotz der Tatsache, dass Phil Jones und seine Kollegen jetzt zugeben, dass sie die Rolle der ‚natürlichen Variabilität’ nicht verstehen.
Das Deprimierendste an dieser Debatte ist, dass jeder, der das alarmistische Untergangsszenario in Frage stellt, automatisch als ‚Klimaleugner’ tituliert und angeklagt wird, die Zukunft der Menschheit aufs Spiel zu setzen.
Also nochmals zur Klarstellung: Ja, globale Erwärmung ist real und zumindest teilweise auf das durch fossile Treibstoffe emittierten CO2 zurückzuführen. Aber die beweise beginnen zu zeigen, dass sie viel langsamer vonstatten geht als die Katastrophisten behauptet haben – eine Schlussfolgerung mit enormen politischen Implikationen.
von David Rose; das Original ist in der Daily Mail UK erschienen
Bei WUWT finden sich noch folgende Zusatzbemerkungen:
Betrachtet man die Bedeutung der Periode seit 1997, sollte man sich daran erinnern, dass Dr. Ben Santer behauptet hat, dass die erforderliche Periode 17 Jahre beträgt:
http://wattsupwiththat.com/2011/11/17/ben-santers-17-year-itch/
Sie finden, dass troposphärische Temperaturaufzeichnungen mindestens 17 Jahre lang sein müssen, um zwischen internem Klimarauschen und dem Signal von anthropogen verursachten Änderungen der chemischen Zusammensetzung der Atmosphäre zu unterscheiden.
Professor Richard Lindzen am MIT hat Ähnliches in einem Gastbeitrag auf WUWT geschrieben:
‚Es gab seit 1997 keinen Erwärmungstrend mehr und keine statistisch signifikante Erwärmung seit 1995’.
Bob Tisdale hat einen 17- und einen 30-Jahre-Trend verglichen hier.
Hier findet man den Datensatz von HADCRUT4.
Link: http://wattsupwiththat.com/2012/10/13/report-global-warming-stopped-16-years-ago/
Übersetzt von Chris Frey EIKE
Update 16.10.12 15:46 Uhr
Das Metoffice hat sich jetzt zu diesem Vorgang geäußert. Details samt Kommentaren (nur in Englisch) hier
Martina sagt:Hallo, ich wollte mich mal ffcr die tolle Anleitung benekdan. Nach anfe4nglicher Skepsis ob die We4sche auch sauber wird (bei 3 Kindern), mache ich mein Waschmittel inzwischen nur noch selber.Bei den Mengen, die ich brauche spart das wirklich Geld und es ist ein tolles Geffchl nicht mehr auf ein Industrieprodukt angewiesen zu sein. (Und die Umwelt dankt es)LG
Hallo Herr Baecker,
„Das habe ich auch nicht behaupten wollen. Man kann so was schon objektiv messbar machen. Nur kann es sein, dass man für verschiedene Definitionen unterschiedliche Verhältnisse rauskommen. Da braucht man sich nicht zu wundern und der Laie wird irritiert.“
Da bin wieder ganz bei Ihnen. Um nichts anderes ging es mir mit der Aussage, dass der Punkt „objektiv definierbar ist“. Das es dabei verschiedene Definitionen geben kann mit unterschiedlichen Ergebnissen, das liegt in der Natur der Sache.
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Hallo Herr Heß, Sie fragen mich:
„Wie groß war der Anteil des CO2 an der Erwärmung im 20. Jahrhundert und speziell in den letzten beiden Dekaden. Quantitativ mit Fehlerbalken und Bestimmungsmethode.“
Es tut mir leid, aber ich bin kein Klimaforscher und lese auch nicht täglich wiss. Publikationen zu dem Thema, um Ihnen darauf eine fachgerechte Antwort geben zu können.
„Dominanz ist ja keine wissenschaftliche Größe sondern meistens nur eine Erfindung der Journalisten bei den Olympischen Spielen.“
Eine etwas eigentümliche Feststellung. Der Begriff wird in vielen Wissenschaftsfeldern und im Alltagsgebrauch verwendet.
Lieber Herr Stehlik,
„Eine marginale Konzentrationsänderung soll hier die „Erde 2050 explodieren lassen“
Ich kann mir vorstellen, dass Chemiker eine Praeferenz fuer Explosives haben, aber bitte hoeren Sie doch auf zu traeumen und halten Sie sich an die wissenschaftlichen Aussagen. 2050 als Ende der Erde auszurufen, macht Sie nur zum Hanauer Notradamus.
„Die Physik ist für die Temperatur der Erde bedeutungslos. Es kommt auf die Chemie der Erde an“
Schon wieder Esoterik. Keine Chemie ohne Physik, das wissen auch die Chemiker.
Lieber Herr Zuber,
wenn Sie sich ueber fingerprints aufschalauen wollen, auch der Laien findet nach wenigen Sekunden googlen unter den Stichworten ‚fingerprint‘ ‚ climate‘ u.a. wissenschaftliche Abhandlungen dazu. Man muss nicht studiert haben, um sich da aufklaeren zu koennen, eigenes Interesse an Wissenscahft reicht.
@ #105: Dr. Gerhard Stehlik sagt am Samstag, 27.10.2012, 18:28
„Die Physik ist für die Temperatur der Erde bedeutungslos.“
Sie wissen offensichtlich nicht was Physik ist.
@ #105: Dr. Gerhard Stehlik sagt am Samstag, 27.10.2012, 18:28
„Es kommt auf die Chemie der Erde an.“
Das ist falsch. Die Chemie liefert nur eine kleinen Beitrag, z.B. durch die Chemie der Ozonzerstörung.
Sie wissen noch nicht mal, was Physik ist, wollen aber physikalische Aussagen beurteilen. Das ist noch nicht mal als Witz zu gebrauchen.
MfG
Lieber Dr Paul,
„Oder halten Sie alle für blöd“
Das ist keine Ansichtssache, sondern belegen die Teilnehmer germe selber durch ihr Verhalten.
PS das zweite „nicht“ bitte streichen
#106: NicoBaecker meint absichtlich oder unter Einfluss eines Getränks? :
„Das IPCC beruht sich auf der signifikant nicht ohne treibhausgase nicht erklaerbaren Modellierung des juengsten Klimaverlaufs ohne den „Grad der Unerklaerbarkeit“ zu quantifizieren.“
Doppelte Verneinung : nicht nicht bedeutet ja,
„Modellierung“ klappt natürlich auch ohne CO2,
vermutlich besser als mit,
da das Modell dann näher an der Realität wäre.
Wenn es nun seit 16 Jahren leicht abkühlt und das CO2 stetig steigt,
sollte man das CO2 als „Erwärmer“ schleunigst vergessen!!!
Was ist so schwierig daran,
den Verstand einzuschalten Baecker und CO ???
Oder halten Sie alle für blöd?
mfG
@103: Nanu, Herr Baecker, warum so faul? Zuerst geben Sie zu, dass die „globale Mitteltemperatur“ wegen der „schwachen Klimasignalstärke“ des steigenden CO2 im kurzfristigen Rauschen der „Klimavariabilität“ (heisst ja wohl der normalen kurzfristigen Temperaturasschläge) nicht nachweisbar sei (da haben Sie ja ausnahmsweise einmal recht; aber sagen Sie dies ja nicht Rahmstorf, denn der würde Sie dafür höchstwahrscheinlich gerne verdreschen), aber dann befriedigen Sie sich ersatzweise gleich mit angeblichen „Fingerprints“, auf Grund derer Sie offenbar die Wirkung Ihres heiligen CO2 sehen können wollen. Vermutlich meinen Sie damit anekdotische Erinnerungen von kalten, schneereichen Wintern in den 50-iger Jahren, die Sie heute vermissen, und ähnlich unhaltbaren wissenschaftlichen Schwachsinn??
Sind Sie denn schon so auf den Hund gekommen??
#103: NicoBaecker, Sie konnten keinen einzigen „fingerprint“ nennen,
das lässt sich nicht durch ausgesprochene Rüpelei ersetzen.
mfG
Lieber Herr Hess,
in der summary og policy makers wir der CO2 Ursachenanteil auch nicht quantifiziert, m.W.. Es gibt ein paar andere paper zur quantifizierung des anthropogenen Treibhausgasanteils. Das IPCC beruht sich auf der signifikant nicht ohne treibhausgase nicht erklaerbaren Modellierung des juengsten Klimaverlaufs ohne den „Grad der Unerklaerbarkeit“ zu quantifizieren.
#59: Günter Heß sagt am Freitag, 19.10.2012, 20:32:
„Aber Herr Bäcker und Herr Ebel vertreten hier die Physik der Atmosphäre korrekt, ähnlich wie Herr Lüdecke.“
Ich hoffe der Pressesprecher von EIKE, Professor Dr. Host Lüdecke, fühlt sich geehrt durch diesen Vergleich. Mehr möchte ich an dieser Stelle dazu nicht sagen.
Die Physik ist für die Temperatur der Erde bedeutungslos. Es kommt auf die Chemie der Erde an. Den Beweis dafür liefert die CO2 Debatte selbst. Eine marginale Konzentrationsänderung soll hier die „Erde 2050 explodieren lassen“. Und da sage ich als Chemiker, dass die Herren Bäcker, Ebel und Lüdecke die Chemie der Erdoberfläche, auf die es vor allem ankommt, nicht korrekt vertreten. Auch in diesem Punkt passen sie ganz gut zusammen.
Lieber Herr Bäcker #92,
deshalb kann man auch die Summaries for Policymakers des IPCC nicht ernst nehmen, weil man die Aussagen vieler politisierender Klimaforscher nicht ernst nehmen kann.
Kennen Sie andere Paper die den Anteil des CO2 an der Erwärmung im 20. Jahrhundert quantitativ
bestimmen.
Mit freundlichen Grüßen
Günter Heß
Herr Zuber,
nun mal nicht so faul und lesen Sie selber.
Leser Baecker, wo sind Ihre grossartigen „Fingerprints“?????
Finden Sie keine mehr?!
#98: Emil Thomas
haben Sie das wirklich nicht verstanden oder wollen Sie sich unbedingt selber so dumm darstellen? Oder warum verfälschen Sie mein Beispiel jetzt nochmal genauso, wie ich es für eine Fälschung wissenschaftlicher Aussagen dargestellt habe.
Also nochmal für alle:
Die Aussage eines Wissenschaftlers X: „Schnee ist schwarz im Infrarotbereich“ ist korrekt und wissenschaftlich nachgeprüft. Vorsätzlich oder aus Dummheit unvollständig gemacht ist die Aussage „Schnee ist schwarz“ blödsinnig.
Vorsätzlich verleumderisch ist die Aussage „der Wissenschaftler X hat behauptet, Schnee ist schwarz“.
Betrügerisch und verleumderisch ist die Aussage „der Wissenschaftler X hat behauptet, Schnee ist im Sichtbaren schwarz“
Sie können sich nun aussuchen, ob Sie die Leser betrügen wollen oder einfach nur zu dumm sind. Jedenfalls steht fest, das Ihre Aussage nicht die von mir ist!
@ Axel Fischer:
Zitat:
Für jedes im IPCC-Bericht verwendetes Modell ist eine Simulation des letzten Jahrhunderts Pflicht. Es passt verdammt gut. Manche dieser Modelle hat man auch verwendet, um das Klima des letzten Jahrtausends zu simulieren. Sieht auch gut aus…“
Mal wieder der Wunsch Vater der Aussage.
Die GCM´s geben nicht mal das 20. Jhdt. passabel wieder. Die Tricks in den Darstellungen sind gut bekannt und nur Laien fällt nicht auf, was hier gespielt wird. Die Erwärmung von ca. 1900 bis 1940 ist real mit jeder aus 1980 bis 2010 vergleichbar, im Modell um den Faktor 3 schwächer. Von der Erwärmung seit ca. 1850 bis 1940 gar nicht zu reden, außer man neigt immmer noch zum Hockeyspieler. Die Modelle werden dann noch nach Belieben mit der Aerosolschraube getrimmt, damit man die leichte Abkühlung irgendwie erlären kann (1940 bis 1970) und in Summe geht es diesen Modellieren ja nur darum, den CO2 Effekt möglich groß werden zu lassen und mit ihm freilich die vermeintlichen Feedbacks.
Fazit, die Modelle sind Schrott und wenn man zusätzlich bedenkt, dass die tatsächlichen Emissionen seit 1990 in etwa dem sg. worst case entsprechen, dann liegt der Erwärmungtrend der letzten 3 Dekaden bereits deutlich unter dem Modellbereich.
#97
Herr Innerhofer, warum so persönliche Vorurteile, welche Laus ist Ihnen über die Leber gelaufen, Sie kennen mich doch gar nicht? Ihre Diskussionsbeiträge halte ich ja in vielen Fällen für stichhaltig, aber wenn Sie so vorurteilsbeladen argumentieren, müssen Sie verstehen, wenn ich von nun an an Ihrer wissenschaftlichen Objektivität zweifeln muß.
Sie sollte doch mit Befriedigung zur Kenntnis nehmen, daß in diesem Forum – im Gegensatz zu vielen anderen – ausgebildete Naturwissenschaftler diskutieren.
Und mir als Naturwissenschaftler werden Sie zugestehen müssen, meinen eigenen Verstand einsetzen und Für und Wider abwägen zu dürfen ohne von Ihnen beschimpft zu werden.
Für mich zählt in erster Linie der Descartesche Spruch: Dubito ergo sum.
@#85: NicoBaecker
Warum, Herr Baecker, soll derjenige, der die Aussage „Schnee ist schwarz“ skeptisch sieht, sich den Aufwand machen, die Aussage zu widerlegen?
So lange Klimamodelle weder Gegenwart noch Vergangenheit reproduzieren können, sind sie für die Zukunft nicht brauchbar. Eine ungefähre Korrelation zwischen Modell und Realität ist nicht ausreichend, denn die Fehlertoleranz ist damit unbekannt und jegliche Projektion irreführend.
Sie mögen zwar komplex denken können, aber dieses grundlegende Verständnis scheint Sie nicht zu erreichen.
Vielleicht hat es Angst davor.
schon wieder ein Doktor, Hahn
und schon wieder die unheimliche Korrelation, wer nix weiß, schreibt Titel vor seinen Namen, siehe Paul usw.
Meiner einer hat das nur in diesem Post Not um die Peinlichkeit dieser Pauls & Co etwas hervorzuheben.
Was behaupten sie, Herr Hahn?
Die Wissenschaft müsste für sie und eine weitere Hand voll Fantasten beweisen, dass 1+1 zwei ergibt?
Ok, sie glauben nicht, dass 1 und 1 zwei ergibt und haben gleichzeitig nichts dazu zu bieten, was ihren Wahn stützen würde. Außer eben die „Hand Voll Spinner“ dieser Erde.
Schaun sie, wenn sie es schon für nötig empfinden, einen Titel vor ihren Namen zu hängen, dann wäre es sehr angebracht, wenn sie nicht nur wie ein Erstklassler auftreten würden. Das kennen wir hier schon und ist „landläufig“ ein klares Zeichen für gröbere Minderwertigkeitskomplexe.
Zeigen sie uns anhand der anerkannten Physik, der Dynamik der Atmosphäre, der Strahlungseigenschaften im Medium, wo genau der „große Schwindel“ denn besteht! Wenn sie das nicht mal halbwegs schaffen, dann mischen sie sich doch einfach nicht in Dinge ein, die sich nicht mal annähernd verstanden haben. Schaffen sie das?
@ Dr. Hahn
Für jedes im IPCC-Bericht verwendetes Modell ist eine Simulation des letzten Jahrhunderts Pflicht. Es passt verdammt gut. Manche dieser Modelle hat man auch verwendet, um das Klima des letzten Jahrtausends zu simulieren. Sieht auch gut aus, wie gut, ist schwerer zu entscheiden, weil keine thermometrischen Aufzeichnungen über diesen Zeitraum existieren.
Sind wir jetzt fertig? Ist Wissenschaft wirklich so einfach?
Leider nein. Damit ist noch längst nicht bewiesen, dass die Modelle richtig sind. Aber es begründet einen Teil der Zuversicht darin. Zuversicht darin, dass diese beileibe nicht perfekt sind, aber gut brauchbar für unsere Zwecke.
@Leser Baecker: Sie haben grossmaulig von „Fingerprints“ gesprochen. Jetzt lassen Sie uns doch bitte nicht warten und erkären den staunenden Zeitgenossen die „speziellen Bäckerschen Fingerprints“
@ Dr. Hahn #87
Selbstredend hat der Nutzer eines GCM – üblicherweise Klimamodell genannt – die Beweispflicht, daß sein Modell das Klima -ja, was ist das überhaupt – für jeden Ort der Erde korrekt im Zeitablauf wiedergibt – wohlgemerkt in der Vergangenheit, denn die Zukunft ist einer Prüfung nicht zugänglich.
Können die GCM nachweislich nicht.
Aber wie der Mensch nun einmal ist, nicht erst seit dem Orakel der Griechen, vertraut er lieber Kristallkugeln, Horoskopen und …, statt seinem rationalem Verstand, denn aber leider offensichtlich nur Wenige haben.
#85: NicoBaecker,
jetzt verfallen Sie schon wieder in Ihre unqualifizierte Stänkerei.
Reicht es mal wieder nicht für Gegenargumente?
Sie können Ihre wissenschaftliche Seriosität gerne demonstrieren,
in dem Sie die sensationelle Behauptung von Ebel über die „konvektionsbedingte Adiabatik“ der Troposphäre für falsch erklären.
mfG
Lieber Herr Heß, #81
der Nachweis des Einflusses aufgrund gestiegener Treibhausgase erfolgt ja nicht ueber die die eindimensionale globale Temperaturkurve, sondern ueber Muster, die viel spezifischer die Einflussfaktoren abbilden. Die well-mixed Treibhausgase unterscheiden sich im Muster aber nicht, daher kann der Anteil des CO2 daran wohl nur durch seinen Anteil am radiative forcing dieser Gase quantifizieren. Ich wuerde Rahmsdorf da nicht weiter Ernst nehmen und mich an der wissenschaftlichen Literatur orientieren.
Die Modelle stimmen 😉
http://tinyurl.com/dxzpyaz
Lieber Herr Hahn
„Wenn die Modelle stimmen, müßten diese das Klima für die vergangenen Jahrhunderte exakt reproduzieren, ganau so wie den gegenwärtigen Erwärmungsstop“
Sie haben eine naive Vorstellung von Naturgesetzen. Bringen Sie mal ein Beispiel fuer ein Modell, welches exakt mit Messwerten uebereinstimmt, exakt im mathematischen Sinne.
Lieber Herr Hahn, #87
„Sie fordern eine Umkehrung der Beweislast.“
Nein, wenn behauptet wird, dass die Aussagen des IPCC auf Klimamodellen beruhen, die das Klima mit Hilfe des SB-Gesetz beschreiben, so wird derjenige, der dies behauptet, dies belegen müssen.
Lieber Herr Hader #84,
keine Ahnng was sie definieren wollen, wenn Sie schreiben:
„Ich muss ihm aber widersprechen, dass so eine Frage grundsätzlich nicht objektiv definierbar ist. Natürlich ist sie das, man muss sich halt entsprechend die Mühe machen zu sagen, was Dominanz in der Klimaentwicklung bedeutet.“
Meine Frage an Sie ist schlichtweg.
Wie groß war der Anteil des CO2 an der Erwärmung im 20. Jahrhundert und speziell in den letzten beiden Dekaden. Quantitativ mit Fehlerbalken und Bestimmungsmethode.
Dominanz ist ja keine wissenschaftliche Größe sondern meistens nur eine Erfindung der Journalisten bei den Olympischen Spielen.
Mit freundlichen Grüßen
Günter Heß
#86: NicoBaecker sagt:
Warum gibt es eigentlich keinen Skeptiker, der bewiesen hat, warum die Physik in den Klimamodelle angeblich falsch ist? Das wird ständig behauptet, aber niemand hat Beweise geliefert.
Sie fordern eine Umkehrung der Beweislast. Es wäre aber Aufgabe der Klimamodellierer zu beweisen, daß ihre Modelle stimmen, und zwar anhand korrekter Daten für das Klima.
Wenn die Modelle stimmen, müßten diese das Klima für die vergangenen Jahrhunderte exakt reproduzieren, ganau so wie den gegenwärtigen Erwärmungsstop.
Wenn sie das nicht können, sind die Modelle falsch – so einfach ist Naturwissenschaft.
Lieber Herr Hader,
„Ich muss ihm aber widersprechen, dass so eine Frage grundsätzlich nicht objektiv definierbar ist. Natürlich ist sie das, man muss sich halt entsprechend die Mühe machen zu sagen, was Dominanz in der Klimaentwicklung bedeutet.“
Das habe ich auch nicht behaupten wollen. Man kann so was schon objektiv messbar machen. Nur kann es sein, dass man für verschiedene Definitionen unterschiedliche Verhältnisse rauskommen. Da braucht man sich nicht zu wundern und der Laie wird irritiert.
Lieber Herr Zuber, #83
„So, so, „Fingerprints“. In der „Globaltemperatur“ können Sie das angebliche anthropogene CO2 Forcing wegen ungenügender Fingerprints nicht ausmachen“
dass die Wissenschaft an Ihnen vorbeigeht, ist ja nichts Neues.
Und dass Skeptiker mit Ihrer Skepsis nicht an der Wissenschaft, sondern an den Konglomeraten, die die Medien und sonstige Sekundärliteratur so liefern, ansetzen, ist auch evident.
Warum gibt es eigentlich keinen Skeptiker, der bewiesen hat, warum die Physik in den Klimamodelle angeblich falsch ist? Das wird ständig behauptet, aber niemand hat Beweise geliefert.
Lieber Herr Heß, ich stimme Herrn Baecker auch zu, „dass die Frage „welcher Einfluß dominierte das Klima in den letzten Dekaden des 20. Jahrhunderts“ wissenschaftlich nicht exakt definiert ist“. Ich muss ihm aber widersprechen, dass so eine Frage grundsätzlich nicht objektiv definierbar ist. Natürlich ist sie das, man muss sich halt entsprechend die Mühe machen zu sagen, was Dominanz in der Klimaentwicklung bedeutet.
@82 Leser Baecker: So, so, „Fingerprints“. In der „Globaltemperatur“ können Sie das angebliche anthropogene CO2 Forcing wegen ungenügender Fingerprints nicht ausmachen (na klar nicht, bravo zu dieser epochalen Erkenntis, die die AGW Kritiker schon seit Jahrzehnten haben). Und jetzt hoffen Sie also auf sogenannte „Fingerprints“, die zeigen sollen, dass das böse menschliche CO2 so furchtbar gefährlich ist.
Schiessen Sie mal los mit Ihren famosen „Fingerprints“, die wichtigsten zuerst, bitte schön. Damit man Ihnen auch diesen Teil des Klimawahnsinns endlich einmal austreiben kann.
Lieber Herr Hess,
alleine die triviale Tatsache, dass man durch eine Filterungen Varianzanteile in der Temperaturkurve wegfiltern kann, macht es dringend notwendig, dass man GENAU spezifiziert, auf welche Temperaturdaten sich die Quantifizierung der Kausalitaeten bezieht. Hier hat mal ein Herr Kuhnle etwas dazu geschrieben, wenn sein Beitrag etwas inhaltliches enthalten sollte, so vielleicht das, dass bei einer Tiefpassfilterung die Gewichte sich zu den langsam aendernden Einflussfaktoren verschieben. Wenn man nur 30 Jahresmittel naehme, so wuerden externe Einflussfaktoren, die quasiperiodisch mit kleinerer Periode sind, als Einfluss fuer die Varianz auf der 30 Jahresskala verschwinden, waehrend sie auf der Jahresskala evtl. dominant waeren.
Zum Wolkenforcing. Hier hatte ich auch schon mal geantwortet, dass die MessDaten dazu m.W. nicht konsistent sind. Ausserdem ist immer noch die Frage, wie weit diese Daten durch Modelle erklaert werden. Wolken sind ja kein externes forcing. Ferner berufen sich die Forscher bei der Kausalzuordnung und der Aussage, dass anthropogenes forcing nicht vernachlaessigbar ist, oder sogar die letzten Jahrzehnte dominant (wie auch immer dies bewertet wird) nicht alleine auf den Verlauf der globalen Mitteltemperatur, sondern auf Fingerprints. Dass die Kausale Zuordnung nur mithilfe der globalen temperaturkurve heute noch wegen fehlender Signalstaerke nicht moeglich ist, ist schon lange bekannt.
Lieber Herr Bäcker #80,
sie schreiben:
„Kann sein, dennoch ändert das ja nichts an der Tatsache, dass die Frage „welcher Einfluß dominierte das Klima in den letzten Dekaden des 20. Jahrhunderts“ wissenschaftlich nicht exakt definiert ist oder definierbar ist. Die „Trendmetrik“ gibt darauf keine restlose Antwort.“
Da bin ich ganz ihrer Meinung. Diese Schlußfolgerungen sind nicht zulässig und wer behauptet der Einfluß von CO2 oder das anthropogene Forcing hat in den letzten beiden Dekaden des 20. Jahrhunderts dominiert überinterpretiert die Datenlage meiner Meinung nach.
Ich habe ja auch nur dieses Paper zitiert , um zu zeigen, dass es Paper gibt die so interpretiert werden können. Meine Frage an Rahmstorf war ja nach CO2. Als Antwort habe ich dieses Paper bekommen.Das zeigt, dass eben auch oft CO2 mit anthropogenem Forcing gleichgestzt wird.
Die Diskussion damals zeigte meines Erachtens, dass selbst gut ausgebildete Klimawissenschaftler wie Prof. Rahmstorf dieses Paper überinterpretieren und anthropogene Forcings mit CO2 gleichsetzen. Da ist es doch klar, dass Laien in der Interpretation weit darüber hinaus schießen können. In beide Richtungen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß,
„die Interpretation war und ist ja nicht von mir.
Prof. Rahmstorf hat mir das geantwortet bzw. das Paper zitiert auf meine Frage welchen Beitrag CO2 leistet im 20. Jahrhundert und speziell in den letzten beiden Dekaden des 20. Jahrhunderts, wie Sie wissen.“
Ja, ich halte Rahmsdorf oder wer auch immer sonst noch diese Metrik benutzt, trotzdem nicht für sinnvoll.
„Nun ist das ja offensichtlich eines der zentralen Papiere uf dem die Aussage beruht, dass die anthropgenen Forcings in den letzten Dekaden des 20. Jahrhunderts dominieren. “
Kann sein, dennoch ändert das ja nichts an der Tatsache, dass die Frage „welcher Einfluß dominierte das Klima in den letzten Dekaden des 20. Jahrhunderts“ wissenschaftlich nicht exakt definiert ist oder definierbar ist. Die „Trendmetrik“ gibt darauf keine restlose Antwort.
Lieber Herr Bäcker,
sie schreiben:
„Die relativen linearen Trends als „Metrik“ für den Einfluß zu nehmen, ist kein sinnvolles Maß.“
Wie gesagt ich habe mich da nur an die Antwort von Prof. Rahmstorf gehalten, die ich in #76 zitiert habe. Er hat ja wohl ebenso gerechnet oder wo kommen seine größer 100% her?. Aber einverstanden diese ganzen statistischen Spielereien wie Ensemblemittel und multivariate Kurvenfits an Temperaturkurven können höchstens grobe Vermutungen sein wenn es darum geht die Ursachen einer Erwärmung in einem endlichen Zeitraum aufzuspüren. das macht auch ein Korrelationskoeffizient nicht besser, wenn man einen Parameter gar nicht berücksichtigt. Man muß schon direkt Wolkenbedeckung, Wasserdampfgehalt, ocean heat content, Strahlungsbilanz etc genau genug messen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Bäcker,
die Interpretation war und ist ja nicht von mir.
Prof. Rahmstorf hat mir das geantwortet bzw. das Paper zitiert auf meine Frage welchen Beitrag CO2 leistet im 20. Jahrhundert und speziell in den letzten beiden Dekaden des 20. Jahrhunderts, wie Sie wissen. Nun ist das ja offensichtlich eines der zentralen Papiere
auf dem die Aussage beruht, dass die anthropgenen Forcings in den letzten Dekaden des 20. Jahrhunderts dominieren.
Eine statistische Übung.
Haben Sie schon ein anderes Paper gefunden auf meine Frage.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess, #72
Zum Rind/Lean 2008 paper:
Zunächst mal ist es klar, dass sich diese multivariate Analyse auf den gesamten Zeitraum 1889 bis 2006 bezieht. Die mit der Analyse bestimmten optimalen Fitparameter Amplitude und lag für jeden der 4 gewählten Einflußfaktoren ist also optimiert für den gesamten Zeitraum. Wenn man nur Teilintervalle nehmen würde, würden auch andere optimale Fitparameter auskommen. Ich würde dieser Analyse gar nicht so viel Bedeutung zumessen, schließlich ist es nur eine von unzähligen Möglichkeiten, den beobachtbaren globalen Temperaturverlauf empirisch quantitativ durch Einflußparameter zu beschreiben. So kann man natürlich die Analyse noch auf nicht-linerare Zusammenhänge erweitern und ebenso das Set der Einflußparameter, z.B. das cloud forcing, wobei diese untereinander orthogonal sein sollten. Ob das cloud forcing nun linear unabhaengig vom anthropogenen Forcing ist, waere gesondert zu untersuchen. Von dem Lean/Rind Ansatz strikt zu unterscheiden sind die physikalischen Modelle in Form von GCMs, denn diese fitten nicht, sondern berechnen den Temperaturverlauf aus first principles.
Wie Herr Hader schon erklärt hat, ist der Korrelationskoeff. Zwischen Fitmodell und gemessener Temperaturkurve 0.87. Mehr geht mit diesem Modell nicht. Also ist für jeder einzelnen Einflußparameter auch nicht mehr möglich.
„Ein Anstieg durch anthropogenen Forcings von 1955 bis 2005 von 0.136 K pro Dekade
und durch den Rest der Forcings von 0.018 K pro Dekade. Macht 88%.“
88% = 0.136/(0.136+0.018). Die relativen linearen Trends als „Metrik“ für den Einfluß zu nehmen, ist kein sinnvolles Maß. In der Mathematik verwendet man üblicherweise die erklärten Varianzen. Wenn die Temperaturkurve die Varianz V hat, so gibt V = VU + VE, VE ist der erklärte Teil VE=r^2 *V, VU der unerklärte: VU = (1-r^2)*V. Mit r = 0.87 hat man r^2 = 76%. Also ist schon mal 24% = 1-r^2 der Temperaturkurve unerklärte Varianz. Der erklärte Varianzanteil setzt sich hier nun zusammen aus den 4 Einzelvarianzen der 4 gewählten Einflußfaktoren. Der Einfluss wird durch den Koeffizienten c quantifiziert, mit der Einheit Kelvin pro Einheit des Einflussparameters. Da die Koeffizienten fuer die Gesamtkurve bestimmt sind, ist der anthropogene Effekt (wie der aller anderen Einflussparameter des Sets) pro Einheit konstant geblieben und die letzten Jahre nur gestiegen, weil der Einflussparameter relativ zu den anderen angewachsen ist.
Lieber Herr Hader #75,
ja da wäre ich auch vorsichtig in meiner Interpretation.
Aber ich habe nur Prof. Rahmstorf zitiert:
„[Antwort: Lean&Rind 2008 kommen für den Zeitraum 1905-2005 auf eine anthropogene Erwärmung von 0.059 ± 0.001 K, von einer insgesamt beobachteten Erwärmung um 0.074 ± 0.018 K. (wobei Kelvin bei Temperaturdifferenzen natürlich gleich Grad Celsius ist, wieso legen Sie Wert auf Kelvin??)
Der vom Menschen verursachte Anteil ist demnach in diesem Zeitraum 80%. (Über die letzten 25 Jahre liegt er übrigens über 100%, da die natürlichen Einflussfaktoren abkühlend wirkten, u.a. durch die Abnahme der Leuchtkraft der Sonne. Stefan Rahmstorf]“
http://tinyurl.com/8gad9gd
Mit freundlichen Grüßen
Günter Heß
Hallo Herr Heß, „Lean und Rind 2008“ ist schon deshalb kein Gegenbeispiel für die Aussage „Also zum einen kenne ich keine wiss. These, die ausschliesslich von CO2 als Grund für den Temperaturanstieg ausgeht“, weil dort der CO2-Anteil nur eines von 8 Parametern ist, welches unter anthropogene Forcing läuft.
„Das Lean und Rind Paper kommt durch einen Kurvenfit zu dem Schluß, dass überwiegend anthropogenen Forcings für den Anstieg der Temperaturen verantwortlich ist. Für die letzten 25 Jahre sogar fast ausschließlich.“
Das mit dem „überwiegend“ ist ja bekannt. Bei dem letzten Punkt wäre ich aber vorsichtig, mit der Schlussfolgerung. Rein rechnerisch mag es Zeitintervalle geben, wo das Anthropogenic Forcing mehr zur Erwärmung beiträgt, als tatsächlich real stattfindet. Dafür können andere Einflüße zu einer Erkaltung führen. Das ist aber nicht gleichbedeutend mit der Aussage, dass man CO2 als alleinigen Grund für den Temperaturanstieg ausgeht. Die Welt ist in der Regel nicht monokausal.
@Herr Hader: Über niedrige menschliche Instinkte/Handlungen und Wissenschaft!
Neben den hehren Prinzipen anständiger wissenschaftlicher Arbeit (Ehrlichkeit des Forschers, generell hohe moralische Standards bezüglich des Umgangs mit dem Untersuchungsgegenstand oder anderen Forschern etc.) gibt es Reihe schlechter bzw. miserabler oder sogar verdammenswerter bzw. verurteilenswerter Verhaltensentgleisungen bei Wissenschaftlern.
Dazu gehören:
1) Vorsätzlicher Wissenschaftsbetrug zur Erschleichung von Vorteilen (persönliche oder gruppen-bezogene für die Gruppe, zu der sich der Forscher zugehörig fühlt). Dazu gehört das verfälschende Darstellen von experimentellen Daten, eigentliche Datenfälschungen, die gar nicht der Realität entsprechen, etc.
2) Primitiv parteiisches Verhalten von Gruppenmitglieder eines Lehrmeinungsgruppe mit Anspruch auf absolute Wahrheit („wir sind der Konsens der Klimatologen und daher haben wir recht“). Wer nicht der Konsensgruppe angehört wird von der „Community“ geschnitten, öffentlich bekämpft, dessen Publikationsabsichten in Peer-reviewed Journals werden böswillig hintertrieben, wenn die Möglichkeit dazu besteht (jedenfalls nicht grossmütig gefördert, das jedenfalls schon gar nicht), der wird im Hintergrund intrigant hintertrieben bezüglich Zugang zu Forschungsgeldern etc.
3) Primitiv-hysterische Kommunikation der einseitigen, parteiischen Weltsicht in der Öffentlichkeit im politischen Stile des widerlichen Lobbyismus mit plakativen, vereinfachten Slogans, damit jedermann, der von der Sache nichts versteht meint, er würde die Sache ganz einfach und klar verstehen („klar, ich muss die CO2 Wärme wieder abkühlen“). Es geht dabei dem fehlenden Forscher um hysterisch, profilneurotische Selbstdarstellung zur Erschleichung grosser öffentlicher Bedeutung und der Anmassung einer Entscheidungskompetenz in politischen Fragen („der Forscher als Auftraggeber bzw. fordernder Berater für Regierungen“).
Ein besonders übles Verhalten im Umgang mit wissenschaftlichen Daten zeigt leider die amerkanische Regierunsgbehörde NOAA, die für die Sammlung der weltweit erhobenen Temperaturdaten in einer zentralen Datenbank (GHCN Datebnbank) verantwortlich ist. Darin sind Temperaturdaten aus der ganzen Welt weit in das 19. Jahrhundert zurück abgespeichert. Das skandalöse Verhalten von NOAA besteht nun darin, dass NOAA immer wieder Anpassungen der gemessenen Temperaturdaten aus der ganzen Welt vornimmt, und dabei JEDESMAL eine Nachkorrektur historischer Daten nach oben Richtung Temperaturerhöhung erfolgt.
Was meinen Sie, Herr Hader, wenn jemand, der so tut als wäre er objektiv, 20 Mal hintereinander bereits längstens erhobene Daten unter dem Vorwand der Datenverbesserung anpasst („korrigiert“) und dabei JEDESMAL eine Datenkorrektur in die politisch erwünschte Richtung einer Temperaturerhöhung resultiert, UND KEIN EINZIGES MAL EINE KORREKTUR RICHTUNG TEMPERATURABNAHME, wie wahrscheinlich es ist, dass NOAA dabei vorsätzlich betrügt?? Können Sie die Wahrscheinlichkeit eines Betrugs für diesen Fall beziffern? Meine Schätzung der Wahrscheinlichkeit der Betrugsabsicht von NOAA beträgt circa 99.9%!
Lieber Herr Kuhnle #76,
In den letzten beiden Dekaden des 20. Jahrhunderts ist die Wolkenbedeckung abgesunken, gemessen vom ISCCP. Das dadurch verursachte „cloud radiative Forcing könnte zum Beispiel den Sprung erklären.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hader #67,
Wie lesen Sie den Tabelle 1 in dem Lean and Rind Paper.
Ein Anstieg durch anthropogenen Forcings von 1955 bis 2005 von 0.136 K pro Dekade
und durch den Rest der Forcings von 0.018 K pro Dekade. Macht 88%.
Das IPCC berichtet 0.128 K pro Dekade für den Zeitraum.
Für die Zeit 1979 bis 2005: 0.199 K pro Dekade fürs anthropogene Forcing und 0.009 K pro Dekade für den Rest. Macht 96%.
Das IPCC berichtet 0.177 K pro Dekade für den Zeitraum.
Wie ich es geschrieben habe. Das Lean und Rind Paper kommt durch einen Kurvenfit zu dem Schluß, dass überwiegend anthropogenen Forcings für den Anstieg der Temperaturen verantwortlich ist. Für die letzten 25 Jahre sogar fast ausschließlich.
Mit freundlichen Grüßen
Günter Heß
Sehr geehrter Herr Dr.Kuhnle, ich habe nicht geschrieben, dass ich einen dauerhaften Temperatursprung für physikalisch ausgeschlossen halte. Ich sehe ihn aber in den Rohdaten zu den globalen Temperaturen nicht. Für lokale Gebiete mag man soetwas beobachten, die kenne ich zu wenig. Was man in Deutschland auf lange Sicht beobachtet, das von 1981-2010 eine Durchschnittstemperatur von 8,9°C berechnet hat, 1951-1980 bei 8,1°C lag und 1921-1950 ebenfalls bei 8,1°C war. Man kann natürlich auch kürzere Zeitabschnitte mitteln, aber damit fängt man sich auch mehr zeitlich-lokale Effekte und mehr Meßrauschen ein.
Was die Signifikanzaussagen von Klimavorhersagen angeht, so ist das mathematisch gesehen schwerere Kost, die ich selbst kaum durchschaue, bzw. selbst nicht die Zeit dazu hatte, sie mir anzulesen. In wenigen Worten ausgedrückt, versucht man u.a. über Ensembleanalysen von verschiedenen Vorhersagemodelle die Signifikanz zu schätzen.
Hallo Herr Hader,
Die Motivation ist ganz einfach. Im Buch „der Klimawandel“ von S.Rahmstorf und H.J. Schellnhuber (Ausgabe 2012) steht auf Seite 38 unten: „Bis 1940 gab es eine Erwärmungsphase, danach stagnierten die Temperaturen bis in die 1970er Jahre, und seither gibt es einen neuen, bislang ungebrochenen Erwärmungstrend.“ Im Gegensatz dazu steht sinngemäß im obigen Artikel, dass es 1940 bis 1980 keine Erwärmung gab, dann gab es eine 16jährige Erwärmungsphase, seither stagniert das Temperaturniveau. Wer hat recht? Wie kommt es zu diese Kontroverse? Die Antwort: Die Potzdamer Forscher haben offensichtlich den Temperaturverlauf mit Hilfe eines Tiefpassfilters so ausgetrickst, dass die 16 jährige Erwärmungsphase großzügig auf 40 Jahre verschmiert wurde (vielleicht um einen Gleichklang mit dem CO2-Anstieg vorzutäuschen). Noch Viel krasser sind die Verhältnisse bei der Analyse der deutschen Daten (DWD). Dort zeigen die Temperaturen bis auf einen einzigen „Klimasprung“ von etwa einem Grad im September 1987 seit 1943 überhaupt keine Erwärmungstendenz. Prüfen Sie es nach! Sie haben selber zugegeben, dass bei einem plötzlichen dauerhaft wirkenden sprunghaften Anstieg der Tiefpassfilter völlig ungeeignet ist. Wenn Sie einen solchen Klimasprung für physikalisch ausgeschlossen halten, dann sollten Sie sich neuen Denkmustern öffnen. Die Menschen in Deutschland spüren seit 25 Jahren nichts von einer Erwärmung und sie haben recht, es gab auch keine. Alles nur statistischer Schwindel. EIKE sei Dank, dass dem IPCC auch ab und zu widersprochen wird. Alle IPCC-Kritiker als Idioten, Lobbyisten usw. abzustempeln ist einfach nur arrogant und schadet der Wissenschaft. Einigen wir uns einfach darauf, dass es in den letzten 16 Jahren im Durchschnitt auf der Erde etwa ein halbes Grad wärmer war als 1940 bis 1979. Genauere eindeutige Aussagen sind nicht möglich und dürfen kontrovers gesehen werden. Zu den ca. 3 Grad Erwärmung bei CO2-Verdopplung kann ich nichts sagen. Die 90-95% Wahrscheinlichkeit konnte ich aber bisher nicht nachvollziehen. Ich habe noch keine Wahrscheinlichkeitsberechnug dazu gefunden. Kennen Sie eine? Falls nicht, seien Sie doch auch mal skeptisch! Vielen Dank für die Diskussion. MfG
Lieber Herr Kuhnle,
mit der Tiefpassfilterung der GISS Daten macht man ueberhaupt keine Dateninterpretation. Man extropoliert auch nicht. Sie verwechslen die Datenanalyse und die Interpretation des Klimaverlaufes bis heute mit den Szenarien, die man auf dem erwarteten Klimaverlauf fuer die Zukunft anhand der Emissionsszenarie erwartet. Vermischen Sie das nicht!!
Es ist ja eigentlich erstaunlich; Herr Limburg hat in vielen Beiträgen ausdrücklich betont, wie ungenau eigentlich die gemessenen Temperaturen an den Meßstationen sind und wie wenig man den Genauigkeitsangaben bei den gemittelten Globaltemperaturen vertrauen könne. Viele Leser sehen das angeblich ähnlich. Okay, auf der anderen Seite versucht man in zig Beiträgen zu zeigen, in welche Richtung die Trendberechnung von Zeitintervallen gehen, die deutlich kleiner als 30 Jahre sind. Man will also mit Daten, die man selbst für ungenau hält, in kurzen Zeitabschnitten Trendanalysen durchführen und wundert sich, dass man so widersprüchliche Ergebnisse bekommt. Sorry, aber da passt irgendetwas nicht zusammen. Also wenn man schon den Temperaturmessung weniger Genauigkeit zutraut als man allgemein annimmt, dann wählt man doch für die Trendanalyse längere Zeitabschnitte und nicht kürzere aus, um signifikante Aussagen zu erhalten.
#64: „Ein bisschen Mühe geben wäre ganz gut.Sie müssen einfach nur Tabelle 1 anschauen und die Beiträge zu den Trends durch die einzelnen Forcings die
Lean und Rind ausrechnen vergleichen. Da werden Sie sehen, dass die Beiträge des anthrogenen Forcings nahe 100% sind.“
Hallo Herr Heß. In Fig.2 werden die Modellfehler graphisch dargestellt. Das vierte Diagramm zeigt das Modell „Antropogenic Forcing“. Dort ist die Abweichung von den gemessenen Daten deutlich zu sehen. Im übrigen bedeutet „Antropogenic Forcing“ besteht nicht allein aus dem CO2-Anteil: „The anthropogenic forcing is the net effect of eight different components, including greenhouse gases, landuse and snow albedo changes, and (admittedly uncertain) tropospheric aerosols [Hansen et al., 2007] (inset, Figure 2d).“
Die Tabelle 1 „lists the linear trends in the temperature anomalies attributable to each of the four individual influences over the entire
period, and compares the trends in three intervals (past 25, 50 and 100 years) with IPCC’s corresponding linear (net) global surface temperature trends.“ Also ich kann in Gegensatz von Ihnen daraus nicht herauslesen, dass „die Beiträge des anthrogenen Forcings nahe 100% sind“. Die Aussage deckt sich auch nicht mit dem, was man in „5. Summary“ liest. Dort heisst es u.a., dass die Kombination aus natürlichen und menschlichen Einflüssen rein empirisch betrachtet 76% der klimatischen Variabilität erklären.
Also Herr Heß, ich hab jetzt einige Zeit in das Verständnis dieses Paper gesteckt, eigentlich mehr, als ich an diesem Wochenende wollte. Ich komme immer noch nicht dahinter, wie Sie zu Ihrer Einschätzung kommen, will aber einen gravierenden Fehler meinerseits nicht ausschliessen. Sie sehen mich also ratlos bzgl. Ihrer Beiträge #61 und #64.
MfG
S.Hader
Hallo Dr.Kuhnle,
„Die Qualität einer Datenanalyse lässt sich messen! Das Maß ist die Standardabweichung. Wenn es gelingt eine simple Kurve in ein Diagramm zu legen, und die Summe der quadratischen Abweichungen der Datenpunkte zur Kurve kleiner ist als bei einer anderen Datenanalyse, dann war die erste Analyse besser.“
Okay, stellen Sie sich vor, Sie würden für die Modellierung einer Kurve ein Polynom nehmen und mit jedem Versuch den Polynomgrad um 1 erhöhen. Das Ergebnis ist, das gefittete Polynom wird sich immer besser an die gemessene Kurve anlehnen, der Standardfehler würde immer geringer werden. Nach dem Satz von Weierstraß eine bekannte Eigenschaft. Das sagt aber erstmal nichts über die Qualität der Datenanalyse aus, weil man nur beobachtete Daten auswendig trainiert hat. Die Fähigkeit zu einer vernünftigen Inter- und Extrapolation von neuen Daten nimmt irgendwann mit zunehmenden Polynomgrad ab.
„Laden Sie sich bitte die globalen Monatsmitteltemperaturen von NASA-GISS vom Internet und finden Sie eine bessere Kurve als siehe # 16 freilich ohne mehr Parameter zu verwenden.“
Sie haben in #16 reale Daten mit einer stückweisen Zusammensetzung von konstanten Abschnitten modelliert. Am Ende erhält man eine nichtlineare Funktion. Wenn man die Zerstückelung noch feiner betreibt, dann wird man sich natürlich der realen Kurve noch mehr annähern. Es ist erstmal egal, welche Funktion Sie nun nehmen, als erstes muss die Frage gestellt werden, was will man damit zeigen. Deshalb an Sie persönlich die Frage gerichtet, was möchten Sie mit der stückweisen konstanten Funktion konkret zeigen? Was ist die Motivation?
„So plump wie Sie es mir unterstellen, sind meine Analysen nicht. Erst nach vielen Rechnungen, Trendanalysen, Differenzenanalysen, etc. erhalte ich im Ergebnis ein paar simple waagerechte Linien, die die Entwicklung der globalen Temperaturen besser beschreibt, als der gleitende 30-jährige Mittelwert. Eine simple Trendanalyse ist einer sogfältigen Datenanalyse einschließlich der Betrachtung von Einzeldaten eben nicht gnadenlos überlegen. Glauben Sie ich hätte als Physiker mit jahrelanger Erfahrung in der Analyse von Messdaten keinen Durchblick?“
Moment, jetzt werfen Sie einiges in denselben Topf. Ein 30-Jahres-Mittel ist nicht dasselbe wie eine Trendanalyse. Und natürlich ist nach Ihrem(!) Kriterium eine lineare Funktion einem konstanten Wert überlegen. Eine lineare Fkt. lässt sich mit y= a*x+b beschreiben. Ein konstanter Wert ist nur ein Spezialfall dieser Beschreibung mit a=0.
„Die Aussage, dass Sie „ahnen“, dass eine CO2-Verdopplung „höchstwahrscheinlich“ eine Erwärmung zwischen 1,5 und 4,5 Grad (ein sehr weiter Bereich, warum nicht gleich 0 bis 6?) nach sich zieht, scheint mir nich wissenschaftlich sondern klingt nach politischer Phrase (Viel Geschwätz ohne Inhalt). Als Fachmann für Abschätzungen von Unfallwahrscheinlichkeiten bin ich sehr gespannt, an welche Zahl sie bei höchstwahrscheinlich so denken und bin auch gespannt auf Ihre Beschreibung, wie Sie diese Wahrscheinlichkeit bestimmen können.“
Also für mich umfasst die Kategorie „höchstwahrscheinlich“ Aussagen, die zu 90-95% zutreffen.
„Welchem Naturwissenschaftler werfen Sie vor, zu behaupten die Erde sei eine Scheibe?“
Kennen Sie die Flat Earth Society? ;o) Man kann auch beliebig andere praxisnähere Beispiele nehmen. Nehmen Sie nur die Wissenschaftler, die die Evolutionstheorie ablehnen. Man wird nicht automatisch ein guter (Natur-)Wissenschaftler, in dem man „Gegenstrom-Theorien“ aufstellt. Herr Günter Heß hat die Situation hier in #59 schon gut beschrieben. Wissenschaftliche Korrektheit scheint bei manchen Lesern nur wenig zu zählen. Wenn beispielsweise ein promovierter Naturwissenschaftler die Behauptung aufstellt, dass es mehrere hundert Meter unter der Erdoberfläche deshalb so warm sei, weil dort ein höherer Druck als auf der Erdoberfläche herrscht, gleichzeitig aber andere Naturwissenschaftler, die ihm widersprechen als Betrüger hinstellt, die man seiner Ansicht nach strafrechtlich verfolgen sollte, dann kann man echt nur den Kopf schütteln.
#63
Die Qualität einer Datenanalyse lässt sich messen! Das Maß ist die Standardabweichung. Wenn es gelingt eine simple Kurve in ein Diagramm zu legen, und die Summe der quadratischen Abweichungen der Datenpunkte zur Kurve kleiner ist als bei einer anderen Datenanalyse, dann war die erste Analyse besser. Laden Sie sich bitte die globalen Monatsmitteltemperaturen von NASA-GISS vom Internet und finden Sie eine bessere Kurve als siehe # 16 freilich ohne mehr Parameter zu verwenden. Als zweite Einschränkung sollten Sie darauf achten, dass die Kurve extrapolierbar ist, d.h. an den Rändern sollten keine unsinnigen Trends entstehen.
So plump wie Sie es mir unterstellen, sind meine Analysen nicht. Erst nach vielen Rechnungen, Trendanalysen, Differenzenanalysen, etc. erhalte ich im Ergebnis ein paar simple waagerechte Linien, die die Entwicklung der globalen Temperaturen besser beschreibt, als der gleitende 30-jährige Mittelwert. Eine simple Trendanalyse ist einer sogfältigen Datenanalyse einschließlich der Betrachtung von Einzeldaten eben nicht gnadenlos überlegen. Glauben Sie ich hätte als Physiker mit jahrelanger Erfahrung in der Analyse von Messdaten keinen Durchblick?
Die Aussage, dass Sie „ahnen“, dass eine CO2-Verdopplung „höchstwahrscheinlich“ eine Erwärmung zwischen 1,5 und 4,5 Grad (ein sehr weiter Bereich, warum nicht gleich 0 bis 6?) nach sich zieht, scheint mir nich wissenschaftlich sondern klingt nach politischer Phrase (Viel Geschwätz ohne Inhalt). Als Fachmann für Abschätzungen von Unfallwahrscheinlichkeiten bin ich sehr gespannt, an welche Zahl sie bei höchstwahrscheinlich so denken und bin auch gespannt auf Ihre Beschreibung, wie Sie diese Wahrscheinlichkeit bestimmen können.
Welchem Naturwissenschaftler werfen Sie vor, zu behaupten die Erde sei eine Scheibe? ich kenne keinen. Früher haben Mächtige solche Thesen vertreten und Naturwissenschaftler aufgefordert daran zu glauben. Heute wird von den Mächtigen die Klimakatastrophe behauptet. Wer nicht glaubt ist ein Klima-Leugner und wird von den staatlich finanzierten Klimawissenschaftlern auch nicht ernst genommen und sogar vielfach gemobbt. Finden Sie das gut? Mir gefällt dies nicht.
Lieber Herr Hader #62,
Ein bisschen Mühe geben wäre ganz gut.Sie müssen einfach nur Tabelle 1 anschauen und die Beiträge zu den Trends durch die einzelnen Forcings die
Lean und Rind ausrechnen vergleichen. Da werden Sie sehen, dass die Beiträge des anthrogenen Forcings nahe 100% sind.
Grüße
Günter Heß
#55: „Alle 5-100 Jahre wird der quasistabile Zustand verlassen, und es stellt sich ein neues Gleichgewicht ein. Dieses für 5-100 Jahre wirkende Gleichgewicht ist dann ein neuer quasistabiler Zustand. Die Änderungen erfolgen extrem hochfrequent im Zeitraum 1 Monat (schneller Übergang von einem zum anderen Plateau). Die letzte Zustandsänderung der mittleren globalen Oberflächentemperatur erfolgte nach meinen Analysen zwischen August und September 1997 auf seit dem geltende 14,52 C Betrachten wir unter diesem Gesichtspunkt einmal das obige Diagramm. Der Mittelwert beträgt auch hier etwa 14,5 Grad. Das Maximum lag Mitte 2006 bei etwa 14,85 Grad. Dem Gleichgewicht hat dieser Wert nichts ausgemacht, denn ein knappes Jahr später lag die Temperatur bei 14,15 Grad um danach wieder Richtung Mittelwert zu marschieren.“
Es tut mir leid, Herr Dr.Kuhnle, aber da sehe ich jetzt den Zusammenhang nicht. Den Temperaturverlauf sehe ich genauso, wie Sie ihn im 2.Teil beschrieben haben. Doch wo findet in diesem Zeitabschnitt ein Temperatursprung innerhalb eines Monats statt, der auch zeitlich anhält? Wie Sie selbst sagten, gab es ein Maximum Mitte 2006. Aber das hielt nicht lange an.
„Erweitern wir jetzt einmal das Zeitintervall und betrachten die globale Temperatur ab Juli 1936: Hier können wir feststellen, dass es ein sehr lange wirkendes Gleichgewicht gab. 14,00 C bis Juli 1979. Die Temperatur war somit über 43 Jahre quasistabil.“
Ich weiss nicht, von welcher Datenquelle Sie sich bedient haben. Aber das ist jetzt mal zweitrangig. Datenanalyse bei globalen Temperaturen zu betreiben, heisst eben nicht, von einem Intervall die beiden Datenpunkte am Anfang und am Ende des Intervalls zu nehmen, sie zu vergleichen und wenn die beiden ungefähr gleichgroße Werte liefern, zu behaupten, dass eine Stagnation über das gesamte Intervall stattgefunden hat. Wenn das Ihre Vorstellung von Datenanalyse ist, dann begehen Sie weit schlimmere statistische „Sünden“ als derjenige, der bei einer Kurve eine zeitliche Glättung durchführte. Die Temperaturentwicklung wird nicht durch das Vergleichen von zwei verrauschten Meßpunkten quantifiziert, wo sie am Ende durch die Subtraktion ein noch höheres Meßrauschen reinbekommen. Ihre Methode in puncto Genauigkeit ist einer Regressionsgeraden gnadenlos unterlegen. Zumal Sie die Intervallgrenzen noch per Hand selbst ausgewählt haben (Cherry-Picking), was auch wissenschaftlichen Standards widerspricht.
„Wenn Sie mich fragen, warum die Temperatur zwischen 1979 und 1997 nach oben gegangen ist, so kann ich Ihnen diese Frage leider nicht beantworten. Vermutlich spielt CO2 eine Rolle, vermutlich auch die solare Aktivität oder gar kosmische Strahlen. Nach meinem physikalischen Verständnis kann es aber niemals gelingen die komplexen Zusammenhänge des Klimasystems Erde so zu verstehen, dass man Temperaturveränderungen zeitlich und quantitativ Vorhersagen kann. Ein einfacher Zusammenhang mit der Zahl der Sonnenflecken oder alternativ mit dem CO2- Gehalt der Luft kann die Realität niemals vollständig abbilden.“
Das behauptet auch niemand (bis auf ein paar Unverbesserliche), dass man mit einer Handvoll von Parametern die Temperaturänderungen perfekt vorhersagen kann. Ich bezweifle auch ehrlich gesagt, ob so eine hochgenaue Vorhersage überhaupt nötig ist. Selbst wenn man schon ahnt, dass eine Verdoppelung des CO2-Gehalts in der Atmosphäre höchstwahrscheinlich eine Erwärmung zwischen 1,5 bis 4,5°C nach sich zieht, stellt das unsere Gesellschaften vor große Probleme. Die Vorstellung, man könne die Durchschnittstemperatur auf wenige Zehntel Grad genau vorhersagen, ist naiv. Die Vorstellung man bräuchte diese Genauigkeit von wenigen Zehntel Grad, um überhaupt politische Entscheidungen treffen zu können, hingegen ist einfach nur weltfremd.
„Die erfundene Variable der Klimasensitivität mit der man aus dem CO2-Gehalt das Klima berechnen kann, ist in meinen Augen eine Erfindung für wissenschaftlich ungebildete Politiker und für politische Aktivisten. Ein guter Naturwissenschaftler zeichnet sich dadurch aus, dass er auch mal gegen den Strom schwimmt um neue Welten zu entdecken.“
Ja, es sollte aber auch gleichzeitig Sinn machen. Wenn ich beispielsweise behaupte, die Erde sei doch eine Scheibe, dann ist die Gegenstromrichtung garantiert. Ein guter Naturwissenschaftler bin ich deshalb noch lange nicht. Neue Sichtweisen zu entwickeln, ist sicher keine schlechte Fähigkeit, aber es muss sich auch irgendwie mit der Realität decken, sonst wird man auch nicht ernst genommen.
Hallo Herr Heß, ich hab das Paper mal rausgesucht und auf die Schnelle durchflogen. Dort heisst u.a.: „we perform a robust multivariate analysis using the best available estimates of each together with the observed surface temperature record from 1889 to
2006.“
Unter „3 Analysis“ werden die Variablen genannt, wie beispielsweise Aerosole vulkanischen Ursprungs und Sonnenaktivität. Ich kann da jetzt nicht erkennen, wo da eine univariate Analyse zur genauen Vorhersage gemacht wurde, aber vielleicht habe ich es auf die Schnelle auch überlesen. Hinweise sind erwünscht.
Lieber Herr Hader #34,
Sie schreiben:
„Also zum einen kenne ich keine wiss. These, die ausschliesslich von CO2 als Grund für den Temperaturanstieg ausgeht. Sie etwa“
Doch „Lean und Rind 2008“ behaupten mit einem Kurvenfit näherungsweise genau das
Für die letzten 50 Jahre.
Mit freundlichen Grüßen
Günter Heß
@Emil Thomas, #52: „“..es geht darum, dass man den menschlichen Einfluß auf das Klima wieder runterfährt..“
Darauf habe ich mich bezogen. Sie stellen es als bewiesen hin, reden sich aber raus, wenn man Sie darauf hinweist. Denn was plausibel ist, ist damit nicht bewiesen. Das ist vergleichbar mit der derzeitigen Konsensmethodik.“
Ja, ich gehe stark davon aus, dass dieser menschliche Einfluss existiert. Und mit dieser Annahme stelle ich in der öffentlichen Diskussion keine Ausnahme dar. Auch habe ich explizit geschrieben, dass eine Plausibilität noch kein Beweis ist.
„Regionale Trends ergeben sich aus regionalen Effekten. Das Wetter wird dort direkt beeinflusst, erst langfristig ergibt sich daraus das Klima. Und erst diese vielen, unterschiedlich tendierenden regionalen Klimate werden global gemittelt. Also praktisch alle über einen Kamm geschert.
Wer nun glaubt, diesen einen globalen Wert, in welcher Weise auch immer, zu filtern und aus dem Trend etwas ableiten zu können, in eine Formel einzusetzen und Nachkommastellen für einen Einfluss von dies oder jenem zu werten, der betreibt keine Wissenschaft mehr. Denn was wirklich zum jeweiligen Trend geführt hat, ist damit praktisch vernichtet.
Das gilt nicht nur für Sie im speziellen, Herr Hader, sondern für alle Wissenschaftler, die diesen einen globalen Wert als eine Variable weiterverwenden.“
Die globale Durchschnittstemperatur ist EINE mögliche Beschreibung des Klimas. Es behauptet niemand, dass es die einzige Beschreibungsmöglichkeit ist bzw. dass man damit ein umfassendes Bild von unserem Klima erhält. Trotzdem kann man schon einiges daraus ableiten, quasi so als erste Hausnummer. Für die einzelnen Länder und Regionen ist es natürlich relevanter zu erfahren, wie sich vorort die Temperaturen entwickelt haben und wie sie sich je nach Szenario vermutlich weiterentwickeln werden, samt weiterer meteorologischer Kenngrößen. Wenn man wissen will, wie sich das Klima in den Regionen in den nächsten Generationen entwickeln wird, dann spielen aus meiner Sicht kurzfristige Effekte eben nur eine untergeordnete Rolle.
Lieber Herr Kuhnle #55
Sie schreiben:
„Ein guter Naturwissenschaftler zeichnet sich dadurch aus, dass er auch mal gegen den Strom schwimmt um neue Welten zu entdecken. Beim IPCC schwimmen alle mit dem Strom. Hoffentlich nimmt sich unser wissenschaftlicher Nachwuchs kein Beispiel am IPCC sondern verfolgt die Arbeit von EIKE. Dabei spielt es überhaupt keine Rolle, dass bei EIKE auch oftmals Fragwürdiges erzählt wird, alleine der Wille neue Sichtweisen zu entdecken zählt.“
Einverstanden.
Aber Herr Bäcker und Herr Ebel vertreten hier die Physik der Atmosphäre korrekt, ähnlich wie Herr Lüdecke.
Wie die beiden in diesem Forum von Einigen dafür persönlich angegangen werden,ist aber kein Vorbild für wissenschaftlichen Nachwuchs, sondern das Verhalten armseliger Kleingeister.
Ich beobachte hier in letzter Zeit keine Tendenz zu neuen Sichtweisen und kein naturwissenschaftliches Verhalten.
Mit freundlichen Grüßen
Günter Heß
#41: S.Hader sagt:am Donnerstag, 18.10.2012, 09:38
#40: „Der Mensch, der gerade mal einen Wimpernschlag auf diesen Planeten Erde wandelt, will sich also dazu Erhöhen eine „globale Mitteltemperatur“ für den Planeten zu fixieren…..um so mehr ich darüber nachdenken, um so mehr schmunzeln muss ich.“
Herr Hofmann, dass Sie so vieles nicht verstehen, habe ich mit der Zeit schon mitbekommen. Um es mal mit ganz einfachen Worten festzuhalten, es geht nicht darum, eine globale Temperatur zu fixieren, es geht darum, dass man den menschlichen Einfluß auf das Klima wieder runterfährt. Dann ergibt sich die klimatische Stabilität in den kommenden Jahrtausenden von ganz alleine, das ist ja das Schöne an unserer Welt, dass sie ohne uns auch schon zurechtkam.
Pünktlich zum Wochenende schlägt die Stimme der Vernunft wieder zu:
Dr. rer.nat. S.Hader ist sich auch nicht zu schade gleich in die Jahrtausende zu gehen. Wir erfahren sinnfreies über die jahrmillionen alte Klimastabilität und Thesen vom hochgefahrenen Klima.
Schlafwandelnde und zugleich gefährliche Ideologie eines Schreiberlings vom Schlage eines Sören Hader. Diese Welt kam auch ohne uns (schon ?) zurecht. Auch ohne Shaders kommt diese Welt bestens zurecht.
Herr Hofmann, dass Sie so vieles nicht verstehen, habe ich mit der Zeit schon mitbekommen.
Eine absolute Frechheit diese Aussage von jemanden der sich selbst als Stimme der Vernunft preist und solch einen Schwachsinn wie oben von sich gibt. Der heruntergefahrene Geist muss sich mangels Argumenten schon aus der grünen Transformationskiste bedienen. Noch besser kann man sich als bestellter Propagandist nicht outen.
Um es mit den Worten eines Schaudererer zu sagen:
…..um so mehr ich darüber nachdenken, um so mehr schmunzeln muss ich.“
So ist es Herr Sören Hader „Wenn der Verstand schläft, kommen die Gespenster“.
MfG
P.Große
41: S.Hader sagt:am Donnerstag, 18.10.2012, 09:38
#40: „Der Mensch, der gerade mal einen Wimpernschlag auf diesen Planeten Erde wandelt, will sich also dazu Erhöhen eine „globale Mitteltemperatur“ für den Planeten zu fixieren…..um so mehr ich darüber nachdenken, um so mehr schmunzeln muss ich.“
Herr Hofmann, dass Sie so vieles nicht verstehen, habe ich mit der Zeit schon mitbekommen. Um es mal mit ganz einfachen Worten festzuhalten, es geht nicht darum, eine globale Temperatur zu fixieren, es geht darum, dass man den menschlichen Einfluß auf das Klima wieder runterfährt. Dann ergibt sich die klimatische Stabilität in den kommenden Jahrtausenden von ganz alleine, das ist ja das Schöne an unserer Welt, dass sie ohne uns auch schon zurechtkam.
Pünktlich zum Wochenende schlägt die Stimme der Vernunft wieder zu.
Dr.rer.nat. S.Hader ist sich auch nicht zu schade jetzt schon von Jahrtausenden zu fabulieren. Sinnbild eines heruntergefahrenen Verstands ist die märchenhafte Vorstellung einer klimatischen Stabilität. Mit welchen Argumenten sich hier Shader präsentiert ist einfach nur noch schauderhaft.Das schöne an unserer Welt ist die Tatsache, dass Schreiberlinge vom Schlage eines Sören Hader sich auf Dauer der völligen Lächerlichkeit preisgeben müssen.
Um es mit den leerreichen Worten eines Schaudererer zu sagen:
…..um so mehr ich darüber nachdenken, um so mehr schmunzeln muss ich.“
Denn: diese Welt kommt auch ohne solche Propagandisten zurecht.
MfG
P.Große
@Peter Jensen, #50: “ Nur nochmal zur Erinnerung: wir reden über eine „Erwärmung“ von 0,6 (!!!) seit 1860 (im übrigen dem Ende einer kleinen Eiszeit). Und ein großer Teil des „Erwärmungstrend“ im 20. Jhdt. beruht auf dem Sprung durch den starken El-Nino 1998. Davor und danach gibt es so gut wie gar keinen Trend!!!“
Ein El-Nino-Jahr führt zu keiner dauerhaften Erwärmung, erst recht nicht, wenn die Temperaturen im nächsten Jahr wieder fallen. Und wenn man statt 10- oder 15-Jahre-Trends eine Regressionsgerade mit Minimum 30 Jahren berechnet, dann reduziert sich der Einfluss solche Ausreißer. Übrigens, wenn Sie selbst nicht in der Lage sind, Trends von größeren Zeitabschnitten zu berechnen, ist das Ihr Problem. Da müssen Sie sich nicht bei anderen beschweren. :o)
#46
Sehr geehrter Herr Hader,
Wie ich sehe, haben wir beide ein gemeinsames grundlegendes Verständnis und können daher auf einem Niveau diskutieren, wie es beim IPCC leider nicht möglich scheint. Den Temperaturverlauf kann man aufteilen in 2 Anteile: 1. Kurzfristige Schwankungen in beide Richtungen 2. Längerfristig wirkende Änderungen. Mein naturwissenschaftliches Verständnis ist folgendes: Die Temperatur befindet sich meistens in einem quasistabilen Zustand. Durch verschiedene Einflüsse gibt es ständig Variationen, ohne dass der Mittelwert verändert wird. Alle 5-100 Jahre wird der quasistabile Zustand verlassen, und es stellt sich ein neues Gleichgewicht ein. Dieses für 5-100 Jahre wirkende Gleichgewicht ist dann ein neuer quasistabiler Zustand. Die Änderungen erfolgen extrem hochfrequent im Zeitraum 1 Monat (schneller Übergang von einem zum anderen Plateau). Die letzte Zustandsänderung der mittleren globalen Oberflächentemperatur erfolgte nach meinen Analysen zwischen August und September 1997 auf seit dem geltende 14,52 C Betrachten wir unter diesem Gesichtspunkt einmal das obige Diagramm. Der Mittelwert beträgt auch hier etwa 14,5 Grad. Das Maximum lag Mitte 2006 bei etwa 14,85 Grad. Dem Gleichgewicht hat dieser Wert nichts ausgemacht, denn ein knappes Jahr später lag die Temperatur bei 14,15 Grad um danach wieder Richtung Mittelwert zu marschieren. Im Gegensatz zu den IPCC-Theorien, bei der höhere Wasseroberflächentemperaturen den Treibhauseffekt verstärken und dadurch noch höhere Temperaturen bewirken sollen, sind in Wirklichkeit scheinbar starke negative Rückkopplungen dafür verantwortlich, dass die mittlere Temperatur auf mittlere Sicht stabil bleibt. Erweitern wir jetzt einmal das Zeitintervall und betrachten die globale Temperatur ab Juli 1936: Hier können wir feststellen, dass es ein sehr lange wirkendes Gleichgewicht gab. 14,00 C bis Juli 1979. Die Temperatur war somit über 43 Jahre quasistabil. Zwischen 1979 und 1997 gab es Veränderungen innerhalb eines nur 18 jährigen Zeitraumes. Nach meinen Analysen geschah dies in 3 nur wenig stabilen und daher kurzen Stufen. Im obigen Artikel ist auch richtigerweise erwähnt, dass die jetzigen 16 Jahre ohne Erwärmung bereits fast so lange andauern, wie der 18jährige Erwärmungszeitraum. Niemand kann wissen, wie lange dieser Zustand noch anhalten wird, ich könnte mir aber vorstellen, dass es noch eine ganze Weile so bleibt. Daran dürfte auch ein von Prof. Rahmstorf ersehnter el Nina nichts ändern. Wenn Sie mich fragen, warum die Temperatur zwischen 1979 und 1997 nach oben gegangen ist, so kann ich Ihnen diese Frage leider nicht beantworten. Vermutlich spielt CO2 eine Rolle, vermutlich auch die solare Aktivität oder gar kosmische Strahlen. Nach meinem physikalischen Verständnis kann es aber niemals gelingen die komplexen Zusammenhänge des Klimasystems Erde so zu verstehen, dass man Temperaturveränderungen zeitlich und quantitativ Vorhersagen kann. Ein einfacher Zusammenhang mit der Zahl der Sonnenflecken oder alternativ mit dem CO2- Gehalt der Luft kann die Realität niemals vollständig abbilden. Die erfundene Variable der Klimasensitivität mit der man aus dem CO2-Gehalt das Klima berechnen kann, ist in meinen Augen eine Erfindung für wissenschaftlich ungebildete Politiker und für politische Aktivisten. Ein guter Naturwissenschaftler zeichnet sich dadurch aus, dass er auch mal gegen den Strom schwimmt um neue Welten zu entdecken. Beim IPCC schwimmen alle mit dem Strom. Hoffentlich nimmt sich unser wissenschaftlicher Nachwuchs kein Beispiel am IPCC sonder verfolgt die Arbeit von EIKE. Dabei spielt es überhaupt keine Rolle, dass bei EIKE auch oftmals Fragwürdiges erzählt wird, alleine der Wille neue Sichtweisen zu entdecken zählt. Das IPCC gehört sofort abgeschafft.
MfG, Dr. Kuhnle
Schade auch, dass gestern bei Beckmann Herr Maxeiner als Kritiker der Energiewende etwas überfordert war gegen vier Wendefanatiker. Ausserdem glich die Runde dank Beckmann auch mehr einer netten Plauderei mit Comedy-Einlagen als einer Diskussion mit harten Fakten. Denn immer, wenn es etwas anspruchsvoll wurde, beendete Herr Beckmann die Diskussion. Er musste wohl seinen Themenzettel abarbeiten.
Aber ganau DAS ist das Problem. Die meisten Leute haben weder die Zeit noch die Muße, sich mit solch komplexen Dingen wie Klima und Energie zu befassen. Und dies nutzt die Plitik gnadenlos aus, zusammen mit der Angst und dem Ethikgefühl der Menschen. Und bietet dann scheinbar einfache Lösungen an.
Deswegen braucht es umso mehr Institutionen wie EIKE, die der „globalen Verdummung“ etwas entgegensetzen.
#48: S.Hader sagt:
„..ich halte die These vom menschlichen Einfluss auf das Klima für plausibler als die These, dass es keinen Einfluss auf das Klima gibt. Diese subjektive Einschätzung meinerseits ist nicht gleichzusetzen mit einem Beweis, den kann (wenn überhaupt) nur die Wissenschaft liefern..“
Sie sind nicht konsequent!
In #41 haben Sie gesagt:
„..es geht darum, dass man den menschlichen Einfluß auf das Klima wieder runterfährt..“
Darauf habe ich mich bezogen. Sie stellen es als bewiesen hin, reden sich aber raus, wenn man Sie darauf hinweist. Denn was plausibel ist, ist damit nicht bewiesen. Das ist vergleichbar mit der derzeitigen Konsensmethodik.
„Was halten sie denn an kurzfristigen, lokalen Trends für relevanter als an langfristigen, globalen Trends?“
Regionale Trends ergeben sich aus regionalen Effekten. Das Wetter wird dort direkt beeinflusst, erst langfristig ergibt sich daraus das Klima. Und erst diese vielen, unterschiedlich tendierenden regionalen Klimate werden global gemittelt. Also praktisch alle über einen Kamm geschert.
Wer nun glaubt, diesen einen globalen Wert, in welcher Weise auch immer, zu filtern und aus dem Trend etwas ableiten zu können, in eine Formel einzusetzen und Nachkommastellen für einen Einfluss von dies oder jenem zu werten, der betreibt keine Wissenschaft mehr. Denn was wirklich zum jeweiligen Trend geführt hat, ist damit praktisch vernichtet.
Das gilt nicht nur für Sie im speziellen, Herr Hader, sondern für alle Wissenschaftler, die diesen einen globalen Wert als eine Variable weiterverwenden.
Herr Hader und alle anderen CO2-Erwärmungs-Phantasten! Nur nochmal zur Erinnerung: wir reden über eine „Erwärmung“ von 0,6 (!!!) seit 1860 (im übrigen dem Ende einer kleinen Eiszeit). Und ein großer Teil des „Erwärmungstrend“ im 20. Jhdt. beruht auf dem Sprung durch den starken El-Nino 1998. Davor und danach gibt es so gut wie gar keinen Trend!!! Und seit 1998 steigen die Temperaturen auch nicht mehr! Also was wollt ihr uns eigentlich für einen Unsinn erzählen?
Wo ist euer Beweis einer menschgemachten Erwärmung mithilfe von CO2?
@#48,“ich halte die These vom menschlichen Einfluss auf das Klima für plausibler als die These, dass es keinen Einfluss auf das Klima gibt.“
Sie sollten „glauben“ schreiben. Zum einen haben Sie sich hier wiederholt als der multiple Ahnungslose geoutet, womit ihre fachliche Urteilsfähigkeit gegen Null geht. Damit bleibt nur Glauben übrig.
Und was Sie in ihrem Glauben stärkt möchte ich mal gerne wissen. Anders gesagt: Wer zahlt und wie viel?
#44: „Immer wieder interessant, dass Sie den nach wie vor unbewiesenen menschlichen Einfluss als bewiesen hinstellen.
Und damit wir es einfach hinnehmen, wird die Verbesserung auch gleich nichtnachprüfbar ein paar Jahrtausende in die Zukunft verlegt.“
Sehr geehrter Herr Emil Thomas, ich halte die These vom menschlichen Einfluss auf das Klima für plausibler als die These, dass es keinen Einfluss auf das Klima gibt. Diese subjektive Einschätzung meinerseits ist nicht gleichzusetzen mit einem Beweis, den kann (wenn überhaupt) nur die Wissenschaft liefern. Aber letztlich sollten wir als Gesellschaft unser Tun nach dem ausrichten, was wir für wahrscheinliche Eintrittsfälle in der Zukunft halten und nicht auf den unwiderlegbaren Beweis warten. Ich vermute mal, dass Sie im privaten Leben auch nicht viel anders handeln und Entscheidungen auch bei unsicheren und unvollständigen Informationen treffen. Nachprüfbar sind die Thesen sehr wohl und sind Gegenstand der wissenschaftlichen Debatte. Uns selbst und das sollten wir auch ehrlich zugeben, werden nicht immer in der Lage sein, alles Aspekte selbst überprüfen zu können. Das mag ein Dilemma sein, betrifft aber viele Bereiche in unserem Leben.
„Die Realität zeigt seit Jahrtausenden kein Interesse am CO2.
Die Erwärmung der letzten Jahrhunderte kann man besser mit einer Korrelation zur Sonne als zum CO2 erklären.“
Ich kenne auch keinen Wissenschaftler, der den Einfluss der Sonne auf das Klima abstreitet. Nur widerlegt das leider nicht die Wirksamkeit des CO2 auf das gesamte Geschehen. Wäre schön, wenn die Welt so monokausal wäre. By the way, sie können ja gerne mal den Korrelationskoeffizienten zwischen Sonnenaktivität und globaler Temperatur der letzten 150 Jahre bestimmen und selbiges zwischen CO2 und T. Die Daten sollten ja soweit vorhanden sein, wenn vielleicht auch vor 1950 etwas ungenauer als danach.
„Und dass die letzten 15 Jahre einen Hochpunkt darstellen, ist offensichtlich. Wer natürlich die Langzeitdurchschnittswerte betrachtet und dadurch die kurzfristigen Schwankungen sowie die regionalen Unterschiede wegmittelt, der wird für das Wesentliche blind.“
Was halten sie denn an kurzfristigen, lokalen Trends für relevanter als an langfristigen, globalen Trends?
Lieber Dr. Kuhnle,
„Wenn man, wie das IPCC davon ausgeht, dass alle zufälligen Änderungen hochfrequent und alle Klimaänderungen tieffrequent sind,“
Wenn Sie in ungefilterten Daten spektral austragen, so zeigen sich charakteristische Frequenzen. Generell nimmt die Spektralenergie mit der Frequenz ab, aber es gibt eben auch „Resonanzen“ bei der QBA oder breit um die ElNinoperiode. Dies sind wenn man so will die kurzfristigen Zirkulationsaenderungen. Dieseals Klimaaenderungen zu bezeichnen, widerspricht etwas der Definition Klima. Da es aber um die langfristigen Klimaaenderungen geht, ist die Tiefpassfilterungen dennoch angemessen, denn er extrahiert den interessierenden Varianzanteil in den Daten.
Hoecherfrequente Zirkulationsaenderungen resp. Klimaaenderungen sind auch Gegenstand der Forschung, aber Modelle bekommen diese noch nicht richtig hin, was keine Rueckschluesse auf die Modellierbarkeit der langfristigen zulaesst, wie klar sein sollte, aber gerne ignoriert wird.
„Ein Knick in der geglätteten Kurve weist auf einen Temperatursprung hin und nicht auf einen langsamen Anstieg. Hier wird das Integral mit der Funktion verwechselt. Zeichnen Sie mal ein Temperaturdiagramm in dem alle Werte bis 1980 bei 14 Grad und ab 1981 bei 15 Grad liegen. Dann bilden Sie den gleitenden Mittelwert über 30 Jahre. Werden Sie dann behaupten, dass die Temperatur von 1965 bis 1995 angestiegen sei?“
Ja, aber nicht konstant. In diesem Fall ist doch schon anhand der Rohdaten klar, dass eine Tiefpassfilterung nicht sinnvoll ist. Glauben Sie, die Leute seien doof?
PS bitte den link zu Ihrem Zitat noch, danke
#45: „Das mit den Tiefpassfiltern ist nicht so einfach wie Sie meinen. Man möchte die zufälligen von den nichtzufälligen Schwankungen separieren. Statt dessen eliminiert der Tiefpassfilter alle hochfrequenten Änderungen und zwar sowohl die zufälligen als auch die den Klimawandel beschreibenden.“
Sehr geehrter Dr.Kuhnle, es kommt immer darauf an, was Sie rausfinden wollen. Wenn Sie an kurzfristigen Effekten interessiert sind, dann ist ein Tiefpaßfilter als Vorverarbeitungsschritt natürlich ungeeignet. Nur stellt sich mir die Frage, welche kurzfristigen „nichtzufälligen“ Schwankungen eine derart große Amplitude besitzen, so dass Sie für uns von Relevanz sind. Können Sie Beispiele nennen? Zudem können kurzfristige Effekte auf Dauer nicht einen langfristigen Erwärmungseffekte dominieren.
„Schlimm ist nur, dass Klimawissenschaftler Tiefpassfilter anwenden und dann aussagen zu kurzfristigen Änderungen machen, was unzulässig ist.“
Das wäre wirklich schlimm, wie ich oben auch beschrieben habe.
„Ein Knick in der geglätteten Kurve weist auf einen Temperatursprung hin und nicht auf einen langsamen Anstieg.“
Vollkommen korrekt, wobei die Glättung einen eher starken Anstieg scheinbar abmildert, sprich harmloser aussehen lässt.
„Zeichnen Sie mal ein Temperaturdiagramm in dem alle Werte bis 1980 bei 14 Grad und ab 1981 bei 15 Grad liegen. Dann bilden Sie den gleitenden Mittelwert über 30 Jahre. Werden Sie dann behaupten, dass die Temperatur von 1965 bis 1995 angestiegen sei? Die ist absurd, da es in der ursprünglichen Kurve gar keine zufälligen Schwankungen gab. Genau diese Täuschung wird von einigen Klimawissenschaftlern bewusst oder unbewusst betrieben. Ich möchte EIKE ein großes Lob aussprechen, dass hier ein Diagramm von 1996 bis 2012 gezeigt wird, ohne ominöse Kurve. Jeder sieht mit dem bloßen Auge, dass die globalen Oberflächentemperaturen in den letzten 16 Jahren schwankten und kein Trend zu erkennen ist.“
Okay, das sollten wir doch mal auseinander dröseln. Sollte es tatsächlich so hochfrequente, kurzfristige Temperaturanstiege geben, die sich danach wie ein Plateau hinziehen und man kann diese Sprünge auch noch wissenschaftlich erklären, dann ist tatsächlich eine 30-Jahres-Glättung ungeeignet, um dort eine vernünftige Datenanalyse zu betreiben. Nur ich sehe an den realen Temperaturdaten nicht solche Sprünge, dessen Temperaturanstieg sich über ein Plateau erstrecken. Selbst in der ungefilterten Temperaturkurve von 1997 bis 2012 sieht man solche Muster nicht. Stattdessen sieht man eine deutliche Klimavariabilität, die mit einem langfristigen Trend nichts zu tun haben.
Zudem macht es sowieso wenig Sinn, in 15 Jahres-Phasen Trends rauszulesen, kleine Störungen an einen der beiden Enden im Diagramm verändern den Anstieg der Regressionsgerade bei diesem hohen Grundrauschen erheblich.
Und als letztes noch, trauen Sie niemanden der zu Ihnen sagt, „das sieht man doch mit dem bloßem Auge“. ;o) Ich kann Ihnen Beispiele zeigen, wo sie eben nicht ihren eigenen Augen trauen können. Da verlasse ich mehr auf numerische Werte, statt auf irgendein Augenmaß.
Sehr geehrter Herr Hader,
Das mit den Tiefpassfiltern ist nicht so einfach wie Sie meinen. Man möchte die zufälligen von den nichtzufälligen Schwankungen separieren. Statt dessen eliminiert der Tiefpassfilter alle hochfrequenten Änderungen und zwar sowohl die zufälligen als auch die den Klimawandel beschreibenden. Wenn man, wie das IPCC davon ausgeht, dass alle zufälligen Änderungen hochfrequent und alle Klimaänderungen tieffrequent sind, dann ist diese Methode brauchbar, wenn auch überflüssig. Schlimm ist nur, dass Klimawissenschaftler Tiefpassfilter anwenden und dann aussagen zu kurzfristigen Änderungen machen, was unzulässig ist. Ein Knick in der geglätteten Kurve weist auf einen Temperatursprung hin und nicht auf einen langsamen Anstieg. Hier wird das Integral mit der Funktion verwechselt. Zeichnen Sie mal ein Temperaturdiagramm in dem alle Werte bis 1980 bei 14 Grad und ab 1981 bei 15 Grad liegen. Dann bilden Sie den gleitenden Mittelwert über 30 Jahre. Werden Sie dann behaupten, dass die Temperatur von 1965 bis 1995 angestiegen sei? Die ist absurd, da es in der ursprünglichen Kurve gar keine zufälligen Schwankungen gab. Genau diese Täuschung wird von einigen Klimawissenschaftlern bewusst oder unbewusst betrieben. Ich möchte EIKE ein großes Lob aussprechen, dass hier ein Diagramm von 1996 bis 2012 gezeigt wird, ohne ominöse Kurve. Jeder sieht mit dem bloßen Auge, dass die globalen Oberflächentemperaturen in den letzten 16 Jahren schwankten und kein Trend zu erkennen ist.
MfG, Dr. Kuhnle
#41: S.Hader sagt:
„es geht darum, dass man den menschlichen Einfluß auf das Klima wieder runterfährt. Dann ergibt sich die klimatische Stabilität in den kommenden Jahrtausenden von ganz alleine“
Immer wieder interessant, dass Sie den nach wie vor unbewiesenen menschlichen Einfluss als bewiesen hinstellen.
Und damit wir es einfach hinnehmen, wird die Verbesserung auch gleich nichtnachprüfbar ein paar Jahrtausende in die Zukunft verlegt.
Die Realität zeigt seit Jahrtausenden kein Interesse am CO2.
Die Erwärmung der letzten Jahrhunderte kann man besser mit einer Korrelation zur Sonne als zum CO2 erklären.
Und dass die letzten 15 Jahre einen Hochpunkt darstellen, ist offensichtlich. Wer natürlich die Langzeitdurchschnittswerte betrachtet und dadurch die kurzfristigen Schwankungen sowie die regionalen Unterschiede wegmittelt, der wird für das Wesentliche blind.
Herr Hader, ihr Zitat:
„… Um es mal mit ganz einfachen Worten festzuhalten,…“ usw.
Wahrlich Herr Hader, sehr einfache Worte, fast schon kindlich naiv!
@S.Hader #41
Verbreiten Sie nicht so einen Schwachsinn!
Ihr Treibhausfanatiker braucht doch einen Statistischenwert. Ohne einen fixen Wert könnt Ihr weder eure Treibhausangstmärchen aufrecht erhaltn noch eure Computerklimaangstwelt programieren. Ohne definierde Fixwerte seit ihr am Ende. Die Natur im ständigen Wandel (Klima) kennt jedoch keine eurer mathematischen Fixwerte.
Eure Computermodelle sind darauf ausgerichtet, dass mit steigenden menschlichen CO2 Anteil eine wie auch immer existierende Weltdurchschnittstemperatur mit ansteigt. Die reale Natur spielt leider seit einigen Jahren euer Computerspiel nicht mehr mit. Vielleicht sollte Ihr euer Computerspiel mal mit negativen Temperaturwerten füttern…?!
#40: „Der Mensch, der gerade mal einen Wimpernschlag auf diesen Planeten Erde wandelt, will sich also dazu Erhöhen eine „globale Mitteltemperatur“ für den Planeten zu fixieren…..um so mehr ich darüber nachdenken, um so mehr schmunzeln muss ich.“
Herr Hofmann, dass Sie so vieles nicht verstehen, habe ich mit der Zeit schon mitbekommen. Um es mal mit ganz einfachen Worten festzuhalten, es geht nicht darum, eine globale Temperatur zu fixieren, es geht darum, dass man den menschlichen Einfluß auf das Klima wieder runterfährt. Dann ergibt sich die klimatische Stabilität in den kommenden Jahrtausenden von ganz alleine, das ist ja das Schöne an unserer Welt, dass sie ohne uns auch schon zurechtkam.
Mal was allgemeines zum Thema „globale Mitteltemperatur“.
Der Mensch, der gerade mal einen Wimpernschlag auf diesen Planeten Erde wandelt, will sich also dazu Erhöhen eine „globale Mitteltemperatur“ für den Planeten zu fixieren…..um so mehr ich darüber nachdenken, um so mehr schmunzeln muss ich.
Ich meine ja, das der Mensch an sich damit ein Problem hat, wenn er keine festen Werte für eine Berechnung und Bewertung hat. Und bei dem Thema „Klima-Erdgeschichte“ stößt der „kleine“ Mensch schnell an seine Grenzen am festhalten und berechnen von Werten. Geschweige denn von einem Erdgeschichtlichen Erdtemperaturdurschnittswert. Was sagt schon ein irgendwie zum heutigen Zeitpunkt errechneter Globaler Temperaturdurchschnittswert aus, außer in der Bevölkerung damit einen Wert darstellen zu können, an dem sich Angstprophezeihungen und Abzockermentalität festmachen lassen.
Meiner Meinung nach sollte der Mensch weniger irgendwelche Verfallswerte errechnen und damit Bewertungen anstellen sondern er soll das machen, was er und das Leben schon immer gemacht hat. ANPASSEN! Der Mensch muss einfach wieder lernen mit den Höhen und Tiefen des Klimas mit zu gehen. Der kleine Mensch kommt weder gegen die natürlichen noch kosmischen Kräfte an. Und diese Kräfte haben nur Einfluss auf unser Erdklima!
Lieber Herr Dr. Hader,
ich schliesse mich Ihren Kommentaren zu Dr Kuhnle an.
Lieber Herr Dr. Kuhle,
der von Ihnen erklaerte Graph erscheint mir nach Ihrer Schilderung zu urteilen tatsaechlich suspekt. Koennen Sie mal bitte die genaue Referenz angeben, damit ich mich das selber angucken kann?
Ich habe in der grauen Literatur (zB DWD Pressemitteilungen) schon einige leichfuessige Graphen zum Temperaturverlauf gesehen. Da muss man tatsaechlich Wissenschaft und kuenstlerische Freiheit unterscheiden, meistens erkennt man den Unterschied daran, dass die Kuenstler besonderen Wert auf graphische Schoenheit legen und gerne die Rohdaten verschoenern.
@P.Große, tja, ist schon blöd, wenn man wie Sie von den anderen kaum wahrgenommen wird und durch ungekürzte Zitate auf sich aufmerksam machen muss. Meine Zeit ist zu kostbar, um einen Teil meiner Aufmerksamkeit auf Sie zu richten. Als Trost bleibt Ihnen immer noch die Lektüre meiner Beiträge.
Erde grüßt Mond.
#25, Günter Thiele:
Ihre Klarstellungen ändern nix an meiner Kritik.
Man kann keine GLOBALEN (!) Temperaturen aus den Vorjahren mit dem Jahr 2012 vergleichen, wenn das Jahr 2012 noch nicht vollständig abgeschlossen ist.
Egal, wie man die globalen Temperaturen ermittelt und „zusammenzimmert“: Es ist logisch nicht vermittelbar, Werte bis August 2012 als Werte für „Gesamt 2012“ darzustellen.
Diese Umstand bestätigt mich nur zusätzlich in meinem Gemeinverständnis, dass die globalen Mitteltemperaturen grundsätzlich ein Schwindel sind, was ich ja auch schon durch andere Recherchen entsprechend darlegen konnte…
Lieber Herr Rohrlack, #28
„“aber das hat auch keiner erwartet,““
Nun, das habe ich deutlich anders in Erinnerung!“
Kennen Sie auch objektive Fakten statt nur Ihre Erinnerung?
„Allerdings, wenn die letzten 16 Jahre im statistischen Rauschen untergehen, könnte man dann nicht vielleicht doch eine Erwärmung daraus ableiten? das ist doch nicht ausgeschlossen, oder?“
Wie gesagt, der berechnete Trend ist statistisch nicht signifikant. Die Temperaturdaten über diese 16 Jahre indizieren weder eine erwärmng noch eine Abkühlung noch Stillstand.
„Heißt das, dass die Modelle die letzten 50 Jahre nachträglich abbilden bzw. berechnen können? “
Bei den dekadischen Klimavariationen zeigt sich in der Vergangenheit dieselbe Diskrepanz zwischen Modellen und Beobachtung wie wir es für die letzten 16 Jahre sehen, die längerfristigen Trends werden schon ganz gut abgebildet.
„Meines Wissens hat das auch nicht geklappt.“
Sind Sie sicher, dass Sie auch richtig verglichen haben?
#32: S.Hader sagt:am Mittwoch, 17.10.2012, 19:23
@M.Hofmann, #29: „Versucht euch doch mal dem offenen und neutralen Wissensaustausch an zu legen um von eurer ideologischen Ökotraumwelt los zu kommen.“
Und was soll das auf deutsch heissen?
tja was kann das bedeuten Dr. rer.nat. S.Hader ?
Etwa die Stimme der Vernunft die Sie glauben abgeben zu müssen?
Die Stimme der Vernunft wird sogar auf Primaklima nicht für voll genommen.
Horst Schlemmer
Oktober 9, 2012
@shader/axel,
Sie beide sind ja sehr bei Eike aktiv wie ich sehe. Ich weiß nicht genau, was Ihre Motivation ist. Haben Sie irgendeinen Lehrauftrag? Meinen Sie, dort irgendjemanden mit Sachargumenten überzeugen zu können? Ich schlage mal was vor. Halten Sie sich da eine Zeit lang raus. Die haben schon genug Selbstzerfleischungspotenzial mit ihren ganzen Physikquälern. Jeder vernünftige Kommentar auf dieser Plattform ist schlicht Zeitverschwendung, weil er sowieso nicht verstanden werden will.
Ich finde, bei den Inhalten hat Eike nicht mehr verdient als ein Nischendasein a la Sck, wo 7-8 Männeken ihre ökophoben Verschwörungstheorien austauschen.
Antwort Shader:
SHader
Oktober 9, 2012
Herr Schlemmer, nein, einen Lehrauftrag habe ich nicht. Meine Motivation hat sich schon mittlerweile darin reduziert hin und wieder dort eine Stimme der Vernunft in die Diskussionen einfliessen zu lassen. Ähnliche Motivationen würde ich auch bei anderen vermuten. Nach etlichen Dauerdiskussion werden die eigenen Ansprüche schon echt bescheiden. ;o)
Die Stimme lässt weiter verlautbaren:
Vielleicht mag es Sie überraschen, Ihre Idee finde ich überhaupt nicht abwegig. Gerade nach der Sperrung von NicoBaecker aus nichtigen Gründen stellt man sich schon die Frage, ob man sich alles an Einschüchterungsversuchen gefallen lassen soll. Für eine gewisse Zeit würde es dem Forum eher schaden, wenn sich dort die vernünftigen Stimmen zurückziehen würden und da zähle ich eindeutig Herrn Heß und Herrn Innerhofer absolut dazu. Es kann aber auch nur funktionieren, wenn sich alle daran beteiligen, und da habe ich wirklich meine Zweifel. Ich wäre für die Idee, sich für eine begreunzte Zeit komplett aus EIKE zurückzuziehen, absolut zu haben.
User Kai lässt sich zu folgender Feststellung verleiten:
kai
Oktober 10, 2012
schaudererererer “stimme der vernunft”
hahahahagahahahahagahahahahaha, selten so gut gelacht!!
mehr davon
Hört Shader Stimmen? Stimmen der Vernunft und der klimatischen Verzückung? Kann Shader die Absolution der Klimakirche erteilt werden?
Ich bin absolut dafür !
„Wenn der Verstand schläft, kommen die Gespenster“.
MfG
P.Große
#31: „Tiefpassfilter, wie gleitende Mittelwerte oder Gaußsche Glättungen verfälschen kurzfristige Temperaturverläufe erheblich und sollten daher unterbleiben.“
Sehr geehrter Herr Dr.Kuhnle, genau das ist doch der Sinn, weshalb man Tiefpaßfilter wie den Gauß- oder Mittelwertfilter einsetzt; man möchte damit kurzfristige Änderungen eliminieren, um damit die langfristigen Trends hervorheben zu können. Sie können natürlich auch die Rohdaten nehmen und die kurzfristigen Temperaturtrends (< 30 Jahre) ermitteln. Aber dann sollten Sie auch wissen, was Sie mit diesen Infos anfangen wollen. Ob es beispielsweise in den letzten 15 Jahren eine Temperaturstagnation gab oder nicht, sagt noch sehr wenig darüber aus, wie sich die Temperaturen bis 2100 entwickelt haben werden. "Wärmere Temperaturen als heute gab es in den jüngsten Interglazialen nachgewiesenermaßen häufig bei niedrigerer CO2 Gehalten. Die Hypothese, dass ausschließlich CO2 die heutigen Temperaturen verursacht haben kann ist damit hinreichend widerlegt." Also zum einen kenne ich keine wiss. These, die ausschliesslich von CO2 als Grund für den Temperaturanstieg ausgeht. Sie etwa? Zum anderen ist selbst die jüngste Warmzeit im Interglazial schon über 100.000 Jahre her. Deren Temperaturabläufe verliefen 1-2 Größenordnungen langsamer, als das was wir hier erleben. Es ist auch nicht verständlich, warum man aus rein menschlicher Sicht dieses Zeitalter als "Vorbild" nehmen sollte. Unsere jetzige Natur hat sich auf die klimatischen Bedingungen der letzten Jahrtausende eingestellt und nicht mehr auf die diversen Warmzeiten, die es im Pleistozän gab.
#32: S.Hader, das heist,
dass die Ökotraumwelt sich nicht an Fakten orientiert,
sondern an der Ideologie, dass der Mensch schädlich sein muss für die „Ökologie“, wer immer das genau sein mag.
Eigentlich egal wie das Klima wird,
wird es wärmer, sagt man, das ist schädlich für den Mr. Ökologie und der Mensch ist schuld,
wird es kälter,
sagt man immer noch, das ist schädlich für den Herrn Ökologie und der Mensch ist schuld.
Wird es trocken,
sagt man, …
wird es nass,
sagt man, …
Das genau ist die Ökotraumwelt,
MENSCHENFEINDLICH!
mfG
@M.Hofmann, #29: „Versucht euch doch mal dem offenen und neutralen Wissensaustausch an zu legen um von eurer ideologischen Ökotraumwelt los zu kommen.“
Und was soll das auf deutsch heissen?
An Nr. 24
Sehr geehrter Herr Hoemann,
Vielen Dank für den Hinweis. Die habe habe ich letztes Wochenende vom GISS heruntergeladen und ausgewertet. Früher glaubte ich nicht an die globalen Daten und habe immer nur deutsche Daten vom DWD ausgewertet. Hier stagniert das Temperaturniveau (Monatsanomalie) übrigens seit September 1987 (seit über 25 Jahren). Gleiches gilt auch für die Tempartur in Potsdam. Dort tätige Professoren haben ein Buch zum Klimawandel geschrieben. In der Ausgabe von 2012 behaupten sie, dass die Temperatur weltweit und in Potsdam seit Mitte der 70er bis heute kontinuierlich angestiegen sei, und dass der Trend weiter fortbestehen würde. Dies wird untermauert mit einer geglätteten Kurve, die den Temperatursprung von 1987 um mehr als 10 Jahre verschmiert. Für die letzten Jahre wird eine gestrichelte Linie eingezeichnet, mit dem Hinweis, dass sich die Kurve noch ändern wird (meine Anmerkung: weil die zukünftige Temperaturerhöhung noch in die aktuelle Temperatur mit eingerechnet werden muss!). Physikerkollegen, denen ich dies gezeigt habe, wittern vorsätzlichen Betrug. Soweit möchte ich nicht gehen, es könnte auch Dummheit sein. Tiefpassfilter, wie gleitende Mittelwerte oder Gaußsche Glättungen verfälschen kurzfristige Temperaturverläufe erheblich und sollten daher unterbleiben.
Die bei der Änderung der GISS Daten gemilderten Temperaturanstieger der 30er Jahre sind meines Erachtens nicht entscheidend. Wärmere Temperaturen als heute gab es in den jüngsten Interglazialen nachgewiesenermaßen häufig bei niedrigerer CO2 Gehalten. Die Hypothese, dass ausschließlich CO2 die heutigen Temperaturen verursacht haben kann ist damit hinreichend widerlegt.
Gruß,
Dr. Kuhnle
Ein kleiner Lichtblick für unsere Leser aus der Sparte Klimahysterie:
2013 werden wir vielleicht wieder einen neuen Temperaturrekord erreichen. Professor Rahmstorf vom Panik- Institut für Klimatismus (PIK) hält es für wahrscheinlich, dass es unter Umständen so kommen könnte. Am 12.09.2012 kam er unter der Überschrift „Der Trend geht klar nach oben“ auf „Spektrum der Wissenschaft“ zu folgender Erleuchtung:
„Inzwischen geht es im Sonnenzyklus wieder aufwärts, und es ist nur eine Frage der Zeit, bis die nächste El-Niño-Episode eintritt. Die US-amerikanische Ozean- und Atmosphärenbehörde NOAA hat sogar vorhergesagt, dass es noch in diesem Herbst so weit sein dürfte. Diese beiden Faktoren, zusammen mit den weiter steigenden Treibhausgasen, machen es in der Tat wahrscheinlich, dass es schon 2013 zu einem neuen Rekordjahr kommen könnte. Vielleicht wird das die unwissenschaftlichen Stimmen verstummen lassen, die immer wieder fälschlich behaupten, die globale Erwärmung sei vorbei.“
Nun hat Herr Rahmstorf, analog seiner vielgepriesenen Computermodelle, eine von vielen Komponenten nicht mit der korrekten Wichtigkeit berücksichtigt: Das Verfallsdatum. Die NOAA hat nämlich zwischenzeitlich ihre El- Nino- Warnung wieder zurückgezogen.
Und noch ein Zitat (speziell für Klimahysteriker):
„Was ist das Problem? Das Problem ist, dass man alle grundlegenden Erkenntnisse der Klimaphysik anerkennen und trotzdem die Wahrscheinlichkeit einer katastrophalen Erwärmung für klein und unbedeutend einschätzen kann. Gleichzeitig steht zu befürchten, dass der Schaden der Klimapolitik bereits so groß ist, dass sich die Therapie als viel folgenreicher erweist als die Krankheit jemals an Unheil erwarten lässt. Man könnte auch sagen, wir legen uns eine Aderpresse um den Hals, um unser Nasenbluten zu stoppen.“
(Matt Ridley, Autor)
@NicoBaecker #27
Wenn Ihr „Treibhausfanatiker“ schon nichts genaues wisst, warum erzählt ihr in den Medien und Foren weiterhin Müll und hält nicht einfach mal den Mund bzw. Finger still.
Versucht euch doch mal dem offenen und neutralen Wissensaustausch an zu legen um von eurer ideologischen Ökotraumwelt los zu kommen.
NicoBaecker#20
„“Fakt ist auch, dass diese Entwicklung nicht vorhergesehen wurde,““
Das ist wohl wahr!
„“aber das hat auch keiner erwartet,““
Nun, das habe ich deutlich anders in Erinnerung!
„“denn die Modelle koennen dekadische Klimavariationen in der Groessenordnung von zehntelgrad ueber Zeitraeume von einigen Jahren noch nicht genau abbilden,““
NOCH nicht ist gut und macht Hoffnung. Allerdings, wenn die letzten 16 Jahre im statistischen Rauschen untergehen, könnte man dann nicht vielleicht doch eine Erwärmung daraus ableiten? das ist doch nicht ausgeschlossen, oder?
„“ueber laengere Zeitraeume schon.““
Heißt das, dass die Modelle die letzten 50 Jahre nachträglich abbilden bzw. berechnen können? Meines Wissens hat das auch nicht geklappt.
D. Rohrlack
Lieber Herr Thiele, #26
„Lächeln deshalb, weil ich in Erinnerung habe, dass in der Vergangenheit nach jeder Schönwetterlage, und wenn sie auch nur zwei, drei Tage dauerte, mindestens einer der üblichen Verdächtigen das nächstbeste Mikrofon an sich riss, um dies als Bestätigung für seine Katastrophenwarnung von der globalen Erwärmung kundzutun. Selbst ein kalter Winter wurde als sicheres Zeichen der Apokalypse gedeutet.“
1. wurde dies sicherlich nicht von Wissenschaftlern so behauptet, wie Sie es wiedergeben
2. haben Ihre Aussagen sachlich nichts mit der Signifikanz des 16-Jahres-Trends zu tun
@Nico Baecker #20
Über Ihren Sarkasmus und die daraus abgeleitete Faktenlage, „jeder Trend ueber kuerzere Zeitraeume als rund 20 Jahre ist statistisch nicht signifikant“ kann ich nur lächeln.
Lächeln deshalb, weil ich in Erinnerung habe, dass in der Vergangenheit nach jeder Schönwetterlage, und wenn sie auch nur zwei, drei Tage dauerte, mindestens einer der üblichen Verdächtigen das nächstbeste Mikrofon an sich riss, um dies als Bestätigung für seine Katastrophenwarnung von der globalen Erwärmung kundzutun. Selbst ein kalter Winter wurde als sicheres Zeichen der Apokalypse gedeutet.
@#14, Rainer Hoffmann
„Auch wenn man die ganze „Theorie“ rund um die globale Mitteltemperatur bekanntlich kritisch betrachten muss, halte ich es nicht unbedingt für glaubwürdig, wenn man Mitte Oktober 2012 schon eine definitive und „unumstössliche“ globale Mitteltemperatur für das GESAMTE (!) Jahr 2012 präsentiert.“
—
Vielleicht hätten Sie den Artikel von Anfang an lesen sollen. Da steht schon unter der Überschrift
„1) Die Abbildungen zeigen, dass es seit Anfang 1997 bis August 2012 keinen erkennbaren der globalen Temperaturen gegeben hat“.
Und das sogar fettgedruckt, damit auch der unaufmerksamste Leser merkt, dass die Kurve nur bis August 2012 geht und nicht bis Sylvester.
Zu Nr. 16
Sehr geehrter Herr Dr. Kuhnle
Mir ist leider nicht bekannt, ob Sie für Ihre Auswertung die jetzt im Netz stehenden Daten von GISS und NASA verwendet haben, oder ob Sie die bis vor einiger Zeit vorhandenen Daten kennen.
Ich empfehle den Artikel
http://tinyurl.com/bvufxcz
hier auf Eike. Ich gehe davon aus, dass die alten Daten andere Werte als von Ihnen berechnet ergeben würden.
Mit freundlichen Grüßen
Andreas Hoemann, Dipl.-Geologe
Sehr schön,
der Papst der Nullsätze und Nebelkerzen, Herr Hader, wirft mir vor, eine Nebelkerze gezündet zu haben.
Nun, das könnte ja durchaus mal passieren, dass ich sowas vorhabe und tue, mir das aber bei einem Hinweis auf die Realität vorzuwerfen, ist schon Realsatire.
Genosse Hader: lassen sie sich von der Realität nicht täuschen! :-)))
#8: Franz Zuber sagt:am Dienstag, 16.10.2012, 15:20
@5 Frau Ketterer: aus welcher Alarmistenfibel haben Sie denn diesen Unsinn wieder her:
. . .
[……]
Und mit Beispielen aus der Biologie sollten Sie sich ganz besonders heraus halten, da verstehen Sie offenbar wirklich weniger als NULL.
#### ##### ####
Sehr geehrter Herr Zuber,
Was veranlasst Sie zu dieser gewagten These?
Mit meiner Bio-Abiturnote kann ich sicherlich mit der Ihren mithalten. Und meine Leistungsbewertung im mündlichen Abi in Bio können Sie nur schwerlich übertreffen. Zugegeben, im Studium hatte ich nur peripher mit der Biologie zu tun.
Da in meinem Alter in der Regel Demenz nur selten Auftritt: Was veranlasst Sie zu diesem ad hominem –Beitrag?
Es freute mich zumindest, dass Sie die Brüllerei (aka als festklemmende Umschalt-Taste) unterlassen haben.
P.S. ich wollte hier keine Ozonloch-Diskussion starten, mir ging es nur um die „Unbedeutende Rolle“ von Spurengasen im Allgemeinen, die Herr Hofmann angeführt hatte
@F.Ketterer #11
Um mal mit dem Ozonlochmythos aufzuräumen, ersetzen wir als erstes das Propgandawort „Ozonloch“ durch das wahrheitsgemäßere Wort „Ozondünnschichtstelle“.
Dann sollten wir uns mal damit beschäftigen, was es eigentlich braucht, dass Ozon und damit eine Ozonschicht überhaupt entsteht. Da wäre zu einem der Sauerstoff, dann brauchen wir noch UV-Strahlung, die von der Sonne kommt und es ist auch der Produktionsort wichtig, dieser liegt so ca. 8 Kilometer bei den Polen und sonst bei ca. 18 Kilomoter.
Da es sich bei den Produktionszutaten Sauerstoff und UV-Strahlung um variable Zutaten handelt, ist das Produkt Ozon entsprechend auch variabel. Die Menge des produzierten Ozons und somit auch die Dicke der Ozonschicht hängt zum einen von der vorhandenen Größenordnung des Sauerstoffs und von der Intensivität der Sonnen-UV-Strahlung am Produktionsstandort (8-18 km) ab. Desweitern ist zu beachten, das die Pole eine Engstelle in der Atmosphäre darstellen und somit die Ozonschicht hier weit aus dünner ist als an jedem anderen Atmosphärischen Ort der Erde. Somit sind die „Ozonlöcher“ an den Polen nichts weiter als eine natürliche atmosphärische komprimierte „Ozondünnschichtstelle“.
Um jetzt wieder die Überleitung zum eigenlich Thema CO2 zu bekommen, möchte ich Sie noch darauf hinweisen, das wir Menschen uns in einen ständigen kosmischen und natürlichen Kreislauf befinden. Diese Kreisläufe in Ihrer Vielfalt und Wechselwirkung verlangen dem Leben eine ständige Anpassungen ab. Angestossen werden diese Kreisläufe von der Strahlungskraft der Sonne.
CO2 spielt bei den durch die Sonne angestossenen natürlichen Kreisläufen eine sehr wichtige Funktion. Und zwar in der Form, das CO2 als Basis zur Herstellung für unseren Sauerstoff zwingend benötigt wird. Pflanzen wandeln mit Hilfe unseres Sonnenfusionsreaktors CO2 in Sauerstoff und somit trägt dieser Kreislauf dazu bei, das entsprechend Sauerstoff in die Atmosphäre gelangt. Hier schließt sich dann wieder der Kreis hin zum Natur-Kosmosprodukt „Ozon“.
Sie sehen also, CO2 ist ein sehr wichtiger Bestandteils unseres Lebens. Als Bestandteil eines natürlichen Kreislaufs. Das CO2 das Klima steuern bzw. beherrschen kann, ist also vollkommen absurd. CO2 ist ein immer wieder entstehendes Verbrauchsmaterial, dass für unser Erdenleben von wichtige Zutat darstellt.
„hat die Welt vor fast 16 Jahren aufgehört, sich weiter zu erwärmen.“
Aha, was ist denn da vor 16 Jahren seltsames
passiert, das die Welt sich da einfach entschieden hat, sich nicht mehr weiter zu erwaermen?
So ein Bloedsinn, diese Journalisten sind zu bloed, eine Kurve zu lesen. Wahrscheinlich liegt das an dem taeglichen Strom von Boersennachrichten, die ebenso schwachsinnig interpretiert werden.
Fakt ist: jeder Trend ueber kuerzere Zeitraeume als rund 20 Jahre ist statistisch nicht signifikant. Wenn man ueber die Daten ein Fenster von 16 Jahren schiebt, bekommt man es nur bei Einschluss der letzten Jahre hin, dass der Trend negativ ist, allerdings so schwach, dass bei der Anzahl der Jahre der Wert nicht vom Zufallsrauschen unterscheidbar ist. Man muss wohl noch ein paar Jahre warten, das ist man dem Klimarauschen geschuldet.
Fakt ist auch, dass diese Entwicklung nicht vorhergesehen wurde, aber das hat auch keiner erwartet, denn die Modelle koennen dekadische Klimavariationen in der Groessenordnung von zehntelgrad ueber Zeitraeume von einigen Jahren noch nicht genau abbilden, ueber laengere Zeitraeume schon.
#13: Peter Jensen sagt:am Dienstag, 16.10.2012, 17:00
Wobei, ich habe auch schon gesagt bekommen, dass die Erwärmung gerade nur eine Pause macht, aber dann danach (wann auch immer das ist) wird es richtig warm.
Hallo Hr. Jensen,
wir müssen es zumindest in Betracht ziehen , dass auch das Wetter oder hier vielleicht das Klima, natürlich global gesehen, auch einmal Luft holen muss um dann mit vereinten Kräften alles und jeden zu erwärmen. Das Wetter oder auch das Klima ist quasi ein C02 gesteuerter Fön auf Lauerstellung, der sobald Wind und Sonne es will/kann seinen verhängnisvollen „erst röst ich dich dann säuf ich dich“ Prozess startet.
Warten wir es also ab.
Mfg
P.Große
Hoffentlich steigen die Temperaturen wieder. Ich fürchte aber, dass es kälter wird. Jetzt haben wir durch den Anstieg der Temperaturen genug Wasserdampf in der Atmosphäre, der durch verstärkte Wolkenbildung in Zukunft wieder zur Abkühlung sorgt. War es denn nicht in der Vergangenheit immer so, dass nach einer Erwärmung stets eine Abkühlung folgte? Sollten denn nicht Modelle, die ja die Wirklichkeit erklären sollen, diesen Sachverhalt berücksichtigen? Erwärmung führt zu mehr Wasserdampf, der zu mehr Bewölkung und wieder für Abkühlung sorgt. Das war schon immer so. Liebe Leute, wenn CO2 und Wasserdampf zu immer höheren Temperaturen führen, und diese erhöhten Temperaturen zu immer mehr Wasserdampf und CO2 führen, dann hätten wir längst schon eine permanente Sauna auf der Erde. Eine erhöhte Temperatur hat in der Vergangenheit immer zur anschließenden Abkühlung gesorgt. Das CO2 spielt keine Rolle bei den Temperaturschwankungen. Alle Berechnungen mit CO2 sind überflüssiger Unsinn. Der Wasserdampf sorgt erst für eine vorübergehende Erwärmung, dann über Wolkenbildung zur anschließenden Abkühlung. Die Wolkenbildung gehört zu den stärksten, aller die Temperatur verändernden Parameter. Deshalb sind alle Einflussgrößen wichtig, die die Wolken verändern. CO2 gehört nicht dazu.
#14: Rainer Hoffmann sagt:am Dienstag, 16.10.2012, 18:33
Auch wenn man die ganze „Theorie“ rund um die globale Mitteltemperatur bekanntlich kritisch betrachten muss, halte ich es nicht unbedingt für glaubwürdig, wenn man Mitte Oktober 2012 schon eine definitive und „unumstössliche“ globale Mitteltemperatur für das GESAMTE (!) Jahr 2012 präsentiert.
aber Hr. Hoffmann,
die „Mitteltemperaturen“ stehen längst fest, globale Erwärmung ist keine Frage der Messung mehr, errechnet nach IPCC können Sie quasi für jedes Jahr bis mindestens 2100 nachlesen oder sich anhand der steigenden C02 Gehalte vorrechnen bzw. glaubhaft einreden lassen was Konsens- Wissenschaft bedeutet. Fragen Sie auch einfach hier direkt bei den bekannten Erwärmungs- Experten nach. Sie können auch den DWD, Kleber oder andere Klimakoryphäen fragen oder deren Aussagen lauschen.
MfG
P.Große
Ich habe mir einmal die Mühe gemacht, die vom GISS der NASA veröffentlichten Daten der globalen Monatsmitteltemperaturen genau anzusehen. Vergleicht man über alle Jahre die Durchnittwerte für Januar mit den April oder Juliwerten, so stellt man fest, dass es keinen Unterschied macht, an welchem Monat gemessen wird. Weltweit gesehen ist es also jeden Tag im Jahr im Durchschnitt gleich warm. Vor diesem Hintergrund ist es rätselhaft warum man immer Mittelwerte von Januar bis Dezember bildet. Dadurch gehen Informationen verloren. Bei genauer Analyse ergibt sich mir ab 1900 folgendes Bild:
13,72 Grad Jan 1900 bis Okt 1925
13,86 Grad Nov 1925 bis Jun 1936
14,00 Grad Jul 1936 bis Jul 1979 (43 Jahre!)
14,17 Grad Aug 1979 bis Mai 1987
14,29 Grad Jun 1987 bis Aug 1997
14,52 Grad Sep 1997 bis Sep 2012
Die jüngste Periode dauert somit 15 Jahre und 1 Monat an. Der Rekordwert stammt vom März 2002! 14,89 Grad wurden damals berechnet. Der Tiefstwert der letzten 15 Jahre war der im Januar 2008 mit 14,16 Grad.
Natürlich darf man auch krumme Kurven in ein Temperaturdiagramm malen und behaupten, dass sich das Temperaturgeschehen zur Zeit unterhalb des langfristigen Trends befände. Dies sollte man aber mit einer stichhaltigen Hypothese begründen.
Meine Hypothese ist die, dass sich die globale Temperatur meistens im Gleichgewicht befindet, d.h. die Temperatur schwingt nach kurzfristigen Änderungen durch negative Rückkopplungen wieder zurück. Ab und zu – zuletzt Sep 1997 – bricht die Temperatur aus und nimmt einen neuen mittelfristig stabilen Zustand an. Die Frage ist nur was ruft diese Änderungen hervor? Das CO2 in der Luft könnte dabei durchaus eine wichtige Rolle spielen, schließlich nimmt der Gehalt in der Luft ständig zu. Außerdem kann CO2 Wärmestrahlung absorbieren und diese Energie an die restliche Luft durch Stoß übertragen. Es scheint jedoch reine Spekulation in welchem Maß solche Effekte bei weiter steigendem CO2 wirken können, zumal CO2 nicht der einzige Faktor im komplizierten System sein dürfte. Die Hypothese des IPCC, dass die Temperatur linear mit dem Logarithmus des CO2 ansteigen soll und dabei positive Rückkopplungen den Effekt mehrfach verstärken, leuchtet mir nicht ein. Gemäß IPCC soll die Klimasensitivität bei 2 bis 4,5 Grad liegen bei einer Aussagesicherheit von 90%. Schreibt man die gesamte Erwärmung seit 1959 dem CO2 zu, dann läge man allenfalls am unteren Rand dieser Aussage. Meiner Ansicht nach gibt es die Klimasensitivität gar nicht, da der Zusammenhang Temperatur – Ln(CO2) nicht proportional ist. Eine Klimaprognose wäre dann nicht möglich. Meine Prognose: Der nächste IPCC-Bericht wird der letzte sein.
#7: „Sie verwechseln hier das Mischungsverhältnis mit der Konzentration. 390 ppm bedeutet, dass im Schnitt 390 von 1 Million Luftmoleküle CO2-Moleküle sind. CO2 ist über die gesamte Atmosphäre mit diesem Verhältnis ziemlich gleichmäßig verteilt, da entspricht das Mischungsverhältnis auch etwa der Konzentration. Das sieht jedoch beim Ozon sehr anders aus. Die Ozonschicht befindet sich in einer bestimmten Höhe der Atmosphäre und ist dort in vergleichsweise hoher Konzentration enthalten, da es in den unteren und oberen Schichten so gut wie kein Ozon gibt. Im Schnitt über die gesamte Atmosphäre ist die Mischung kleiner, die Konzentration an einer bestimmten Stelle der Atmosphäre jedoch höher, weswegen auch die Wirksamkeit des Ozons eine andere ist.“
Hallo Peter Jensen, das ist alles soweit richtig. Man kann es auch quantifizieren. Die höchste O3-Teilchen-Konzentration befindet in der Stratosphäre. Der Maximalwert liegt dann so bei 8 ppm. Einfach mal nach „vertikale Ozonverteilung“ googeln. D.h. selbst dort, wo RELATIV gesehen die Konzentration am höchsten ist, liegt sie bei ca. einem Fünfzigstel der durchschnittlichen CO2-Konzentration. Der Hinweis auf die Relativität ist nicht unwichtig, denn wer am Sonntag abend Fernsehen geguckt hat, bekam sicher auch mit, wie dünn die Luft in der Stratosphäre überhaupt ist. Die Luft ist am Erdboden mindestens 100mal dichter. 8 ppm in der dünnen Stratosphäre würden im Schnitt weniger als 80 ppb bei uns unten bedeuten, wenn man die absolute Anzahl an O3-Molekülen pro Volumen als Vergleichsgrundlage heranzieht. Gelegentlich findet man bis zu 180 und mehr ppb in der Atemluft, wo dann auch Gesundheitswarnungen ausgesprochen werden. Mit anderen Worten, stellenweise kann man hier am Erdboden mehr µg/m³ Ozonanfinden als in der Ozonschicht selbst.
„Davon abgesehen kann die Temperatur der Erde völlig durch die Gesetze der Thermodynamik und durch die Masse und Gravitation der Atmospäre erklärt werden. 0,039% CO2 braucht man dazu gar nicht mehr. CO2 hat andere „Aufgaben“ im System Erde, als die Temperatur zu regeln.“
Ja dann erklären Sie mal im Vergleich dazu die Durchschnittstemperaturen des Mars unter Berücksichtigung der Entfernung zur Sonne und der Mars-Gravitation und Masse der Atmosphäre.
#13: „lassen wir doch die tehoretischen Zahlenspielereien (die kennen wir zur Genüge aus den Computerspielen von IPCC und PIK) und schauen uns die Realität an:“
Schöne Nebelkerze. :o)
@Franz Zuber, haben Sie neben Empörungen wie in #8 auch noch inhaltliche Argumente zu bieten?
Auch wenn man die ganze „Theorie“ rund um die globale Mitteltemperatur bekanntlich kritisch betrachten muss, halte ich es nicht unbedingt für glaubwürdig, wenn man Mitte Oktober 2012 schon eine definitive und „unumstössliche“ globale Mitteltemperatur für das GESAMTE (!) Jahr 2012 präsentiert.
Nun gut, Herr Ketterer,
lassen wir doch die tehoretischen Zahlenspielereien (die kennen wir zur Genüge aus den Computerspielen von IPCC und PIK) und schauen uns die Realität an:
keine Erwärmung in den letzten 15 Jahren trotz mehr CO2 in der Atmosphäre.
Mir reicht das eigentlich als Widerlegung der CO2-Erwärmungsthese.
Wobei, ich habe auch schon gesagt bekommen, dass die Erwärmung gerade nur eine Pause macht, aber dann danach (wann auch immer das ist) wird es richtig warm.
Na dann warten wir mal ab.
Ozonlöcher sind der Atmosphärenforschung schon seit dem internationalen geophysikalischen Jahr 1957 bekannt. Ozonlöcher gibt es u. a. auch deshalb, weil die Sonne an den Polen – besonders während des polaren Winters – schräg einstrahlt und nicht mehr ausreichend Energie für den Ozonaufbau aus Sauerstoff vorhanden ist. So eine einfache Erklärung.
Nach einer neuen Studie wird die Ozonkonzentration stark von der kosmischen Strahlung beeinflusst. Hohe kosmische Strahlungsintensität geht dabei mit geringer Sonnenaktivität und geringer Ozonkonzentration einher.
Die Ozonwerte in der Atmosphäre werden seit 1935 in Tromsö/Norwegen gemessen. Die Messwerte liegen in einer natürlichen Schwankungsbreite von +/-15% und stehen in einem exakten Verhältnis zum Jahresrhytmus von Sommer und Winter sowie der Sonnenaktivität.
Heute bestreiten immer mehr Wissenschaftler die allgemein akzeptierte Meinung einer anthropogenen Ozonzerstörung. Die Veränderung der Ozonkonzentration der Stratosphäre ist nach heutigen Erkenntnissen eher ein natürliches, multikausales Phänomen.
Tatsache ist aber auch, dass damals die Patente der Chemischen Industrie zur Herstellung von FCKW ausliefen und die Chemische Industrie die Forschungen zur Zerstörung der Ozonschicht durch FCKW gesponsert hatte. Ein Schelm, der Böses dabei denkt. Die Chemiker Crutzen, Molina und Rowland erhielten für ihre Forschungen zum Abbau des Ozons durch FCKW den Nobelpreis. Doch auch hinter Nobelpreisen stehen oft mächtige Interessengruppen.
#7: Peter Jensen sagt:
am Dienstag, 16.10.2012, 14:46
Herr Ketterer,
Sie verwechseln hier das Mischungsverhältnis mit der Konzentration. 390 ppm bedeutet, dass im Schnitt 390 von 1 Million Luftmoleküle CO2-Moleküle sind. CO2 ist über die gesamte Atmosphäre mit diesem Verhältnis ziemlich gleichmäßig verteilt, da entspricht das Mischungsverhältnis auch etwa der Konzentration. Das sieht jedoch beim Ozon sehr anders aus. ….
#### #### ####
Sehr geehrter Herr Jensen,
Sie haben (bedingt) recht, ich hatte irrtümlicherweise angenommen die 50ppb wären das Mittel über die Atmosphäre. Aber mein Fehler ist nur eine 10er-Potenz. Es ist ca. 1000 mal mehr CO2 in der Atmosphärensäule als Ozon. Ich wollte mit dem Ozon-Beispiel nur Herr Hofamnn sagen, dass andere Spurengase für unser Leben auf der Erde in wesentlich geringerer Konzentration relevant sind.
#7: Peter Jensen sagt:
am Dienstag, 16.10.2012, 14:46
Davon abgesehen kann die Temperatur der Erde völlig durch die Gesetze der Thermodynamik und durch die Masse und Gravitation der Atmospäre erklärt werden. .. ..
### ### ###
Das sehen diese Autoren anders:
http://tinyurl.com/ca6fc5p
Und wie Beschriebt nach dieser Quelle Emden schon 1926 Ihre Annahme: ‘‘Periodisch wiederkehrende Irrtümer’’.
MfG
P.S.
Herr Hofmenn, AFAIK sind noch keine Elefanten durch das Ozonloch geschädigt worden.
Und wir habe ja Beidersdorf 😉
„Aber das nur der Richtigkeit halber, bevor wieder Hader, Ebel, Teufel und Co. das Haar in der Suppe finden.“
Keine Angst, für so viel komprimierten Schwachsinn verschwende ich nicht meine Zeit. Außer für die paar fundementalen Anhängern der Skeptikersekte ist der Schwachsinn auch für jeden ersichtlich.
@Mr Rose/Herr Frey:
„Einige Klimawissenschaftler wie Phil Jones, Direktor der CRU an der University of East Anglia, haben die Bedeutung des Plateaus klein geredet mit der Begründung, dass 15 oder 16 Jahre eine zu kurze Periode seien, um daraus Schlussfolgerungen zu ziehen“
Wenn es aber über 15 bis 16 Jahre nach oben geht, sind die „Klimawissenschaftler“ (z.B. Jones) die ersten, die von einem wichtigen Trend sprechen. Das zeigt überdeutlich, wie unobjektiv und parteiisch diese Pseudo-Wissenschaftler sind. Es handelt sich bei diesen Denkern ja nur um billige Propagandisten Ihres Sektenglaubens vom bösen CO2.
@5 Frau Ketterer: aus welcher Alarmistenfibel haben Sie denn diesen Unsinn wieder her:
„Sie sagen es sei soooooo wenig CO2. In unserer Atomsphäre befindet sich auch Ozon. Aber nicht 390 ppm sondern nur 30ppb also nur ca. 1/10000 der CO2 Konzentration. Gäbe es das Ozon nicht, dann gäbe es auch das Leben auf der Erde nicht – zumindest nicht in der Form wie wir es kennen: Die harten UV-Strahlen würden unsere Lebensform nicht zulassen.
Also bevor sie wieder zum „Großen Denken“ aufrufen, zuerst einmal Ihr Telencephalon booten“
Es ist unglaublich, welche Verwedelungsfrechheiten Sie und Ihre AGW Hysterikergenossen sich hier leisten, nur um irgendwie den Anschein zu erwecken, als steckte hinter dem ganzen Gequake um das katastrophale CO2 mit den den nichg statt-findenden, furchtbaren Überschwemmungen in Tausenden von Jahren eine valable Intelligenz. Nein, gar nichts steckt hinter dem widerlichen CO2 Alarmismus als die fanatische Sektiererei des links-grüne angehauchten (inklusive CDU) Lagers zur Erschleichung der politischen Macht.
Mit Wissenschaft haben Ihre Klimaparolen überhaupt nichts zu tun, dafür aber mit schäbiger Propaganda.
Und mit Beispielen aus der Biologie sollten Sie sich ganz besonders heraus halten, da verstehen Sie offenbar wirklich weniger als NULL.
Herr Ketterer,
Sie verwechseln hier das Mischungsverhältnis mit der Konzentration. 390 ppm bedeutet, dass im Schnitt 390 von 1 Million Luftmoleküle CO2-Moleküle sind. CO2 ist über die gesamte Atmosphäre mit diesem Verhältnis ziemlich gleichmäßig verteilt, da entspricht das Mischungsverhältnis auch etwa der Konzentration. Das sieht jedoch beim Ozon sehr anders aus. Die Ozonschicht befindet sich in einer bestimmten Höhe der Atmosphäre und ist dort in vergleichsweise hoher Konzentration enthalten, da es in den unteren und oberen Schichten so gut wie kein Ozon gibt. Im Schnitt über die gesamte Atmosphäre ist die Mischung kleiner, die Konzentration an einer bestimmten Stelle der Atmosphäre jedoch höher, weswegen auch die Wirksamkeit des Ozons eine andere ist.
Vergleichen Sie das mit einem riesigen Parkplatz, auf dem sich an einer Stelle eine Mauer befindet. Im Schnitt ist der Parkplatz ziemlich unbebaut und frei befahrbar. Allerdings würde ein Autofahrer an einer ganz bestimmten Stelle (nämlich da, wo die Mauer steht), einen ganz anderen Eindruck bekommen.
Davon abgesehen kann die Temperatur der Erde völlig durch die Gesetze der Thermodynamik und durch die Masse und Gravitation der Atmospäre erklärt werden. 0,039% CO2 braucht man dazu gar nicht mehr. CO2 hat andere „Aufgaben“ im System Erde, als die Temperatur zu regeln.
@F.Ketterer #5
Da hätte ich doch mal eine Frage zum Thema Ozon bzw. Ozonloch.
Hat dieses „Ozonloch“ jemals jemanden (Lebewesen) geschadet?
#1: Hofmann,M sagt: am Dienstag, 16.10.2012, 11:35
…
Wie also um alles in der Welt soll so ein „fast“ nicht existierendes Gas, wie es Co2 mit 0,0039% Anteil an der gesamten Atmmosphäre eine langfristige und über die Sonnenaktivität hinausgehende Klimasteuerung bewirken!?
Denkt in großen Dimensionen und ihr werdet zur Erkenntnis kommen, wie lachhaft klein das CO2 und damit das Treibhausmärchen geworden ist.
## ### ### ###
Sehr geehrter Herr Hofmann,
Ihr „Denken“ in großen Dimensionen in allen Ehren. Aber ich hätte da einen Einwand:
Sie sagen es sei soooooo wenig CO2. In unserer Atomsphäre befindet sich auch Ozon. Aber nicht 390 ppm sondern nur 30ppb also nur ca. 1/10000 der CO2 Konzentration. Gäbe es das Ozon nicht, dann gäbe es auch das Leben auf der Erde nicht – zumindest nicht in der Form wie wir es kennen: Die harten UV-Strahlen würden unsere Lebensform nicht zulassen.
Also bevor sie wieder zum „Großen Denken“ aufrufen, zuerst einmal Ihr Telencephalon booten.
@Peter Jensen #2
Danke für Ihre Korrektur. Für mich ist diese Größenordnung im Promillebereich sowas von winzig im Gegensatz zu den anderen natürlichen und kosmischen Einflussgrößen, dass ich da gerne auch eine „Null“ weniger anerkenne….;)
Na ja, in dem Zeitraum ist CO2 um ca. 10% angestiegen. Bei 1 Grad CO2-Sensitivität hätte das ca. 0.13 Grad Temperaturerhöhung verursacht. Das würde doch locker durch die Fluktuationen der El Niño, ENSO und NAO überdeckt. Auch eine ein 0,4 Grad Temperaturerhöhung bei 3 Grad Sensitivität könnte noch verdeckt sein, wer weiß schon genau, welches Ausmaß die natürlichen Fluktuationen haben können? Ich tippe mal, Mitte des Jahrhunderts wird man da mehr wissen.
Herr Hofmann, alles richtig bis auf die eine Null, die beim CO2-Gehalt zu viel reingerutscht ist. Aber das nur der Richtigkeit halber, bevor wieder Hader, Ebel, Teufel und Co. das Haar in der Suppe finden.
Es sind „immerhin“ 0,039% statt 0,0039!!!
Dies ändert aber gar nichts an Ihrer sonst richtigen Grundaussage.
Wie schon so oft geschrieben. Die Menschheit und das Leben hat KEIN Problem mit Erwärmungsphasen aber WIR haben ein gorßes Problem mit Kaltphasen. Wir sollten jeder Erwärmungsphase dankbar sein, die wir erleben durften. Die Kälte ist immer und überall gegenwärtig. Die Wärme jedoch ist nur in der Aktivität der Sonne zu finden und ganz alleine davon abhängig.
Das Weltall mit seinen -270 Grad an Kälte ist die dominierende Größe. Dagegen ist die Sonne ein Sandkorn. Wir sollten den Menschen wirklich mal die RICHTIGEN REALIATIONSGRÖßEN der Natur und des Kosmos vor Augen führen.
Weitere Fragen sind zu stellen…Welche Auswirkung hat z.b. die Ausdehnung bzw. ein Schrumpfen des Weltalls auf die Erde und damit auf das Klima.
Klima spielt sich in großen Dimensionen ab und nicht in so lachhaften Kleinen Dimensionen wie es ein CO2-Pflanzendüngergas von 0,0039% ist.
Damit sich das Klima nachhaltig ändert, müssen ganz andere Kräfte am Werk sein. Z.b. die Verschiebung der Erdachse oder die Entfernung von der Sonne oder die Entfernung des Monds von der Erde oder eine Änderung der Erdumlaufbahn um die Sonne oder die Strahlungsveränderung des Sonnenfusionsreaktors. Selbst große Vulkanausbrüche können nur eine zeitlich kleine Veränderung des Klimas bewirken. Wie also um alles in der Welt soll so ein „fast“ nicht existierendes Gas, wie es Co2 mit 0,0039% Anteil an der gesamten Atmmosphäre eine langfristige und über die Sonnenaktivität hinausgehende Klimasteuerung bewirken!?
Denkt in großen Dimensionen und ihr werdet zur Erkenntnis kommen, wie lachhaft klein das CO2 und damit das Treibhausmärchen geworden ist.