Neuen, während der vorigen Woche veröffentlichten, Daten zufolge, hat die Welt vor fast 16 Jahren aufgehört, sich weiter zu erwärmen.
Die Angaben, die unter Klimawissenschaftlern eine Debatte ausgelöst haben, enthüllen, dass es von Anfang 1997 bis August 2012 keinen nennenswerten Anstieg der globalen Temperaturen gegeben hat.
Dies bedeutet, dass das ‚Plateau’ oder die ‚Pause’ bereits genauso lange gedauert hat wie die vorhergehende Periode, während der die Temperaturen gestiegen sind, also von 1980 bis 1996. Davor waren die Temperaturen stabil oder sind etwa 40 Jahre lang leicht zurückgegangen.
Die neuen Daten, gesammelt von mehr als 3000 Messpunkten zu Land und zu Wasser, wurden in aller Stille im Internet veröffentlicht, ohne Medienfanfaren, und bis heute hat niemand davon berichtet.
Dies steht in scharfem Kontrast zur vorhergehenden Veröffentlichung von Zahlen vor sechs Monaten, die nur bis Ende 2010 gingen – einem sehr warmen Jahr.
Das Ende des Datensatzes damals bedeutet, dass man seit 1997 einen leichten Erwärmungstrend zeigen kann, aber im Jahr 2011 und in den ersten Monaten 2012 war es viel kälter. Folglich ist dieser Trend beseitigt worden.
Einige Klimawissenschaftler wie Phil Jones, Direktor der CRU an der University of East Anglia, haben die Bedeutung des Plateaus klein geredet mit der Begründung, dass 15 oder 16 Jahre eine zu kurze Periode seien, um daraus Schlussfolgerungen zu ziehen.
Andere widersprachen. Professor Judith Curry, Leiterin des Climate Science Department an der amerikanischen Eliteuniversität Georgia Tech, sagte der Mail on Sunday, dass es ganz klar sei, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.
Selbst Phil Jones räumte ein, dass er und seine Kollegen den Einfluss der ‚natürlichen Variabilität’ nicht verstünden – Faktoren wie langzeitliche Zyklen der Wassertemperatur und Änderungen der Sonnenstrahlung. Allerdings sagte er auch, dass er immer noch davon überzeugt sei, dass die laufende Dekade signifikant wärmer ausfallen werde als die beiden zuvor.
Uneinigkeit: Professor Phil Jones (links) von der University of East Anglia, bestritt die Bedeutung des Plateaus. Professor Judith Curry (rechts) von der Georgia Tech University hebt die Bedeutung hervor und sagt, dass die zur Vorhersage der zukünftigen Erwärmung verwendeten Computermodelle ‚ein totaler Fehlschlag’ waren.
Der regulär erstellte Datensatz der globalen Temperatur hat die Bezeichnung Hadcrut 4, da er gemeinsam vom Hadley Centre des Met. Office und der CRU von Phil Jones veröffentlicht wird.
Seit 1880, dem Beginn der weltweiten Industrialisierung und dem Beginn der Datensammlung im globalen Maßstab hat sich die Welt um 0,75°C erwärmt.
Einige Wissenschaftler haben behauptet, dass diese Erwärmungsrate ohne drastische Einschnitte bei den Kohlendioxid-Emissionen erheblich zunehmen wird, was zu einer katastrophalen weiteren Erwärmung bis zu 5°C bis zum Ende dieses Jahrhunderts führen kann.
Die neuen Zahlen wurden zu der Zeit veröffentlicht, an der die Regierung klarstellte, dass es ihre eigenen Kohlendioxid-Verordnungen ‚verbiegen’ und neue Kraftwerke bauen werde, um drohenden Stromausfällen zu begegnen.
Auf der Konferenz der Conservative Party in der vorigen Woche hat der neue Energieminister John Hayes versprochen, dass ‚die hoch fliegenden Theorien von bourgoisen Linksakademikern nicht die Interessen der normalen Leute außer Acht lassen dürfen, die Treibstoff zum Heizen, sowie für Licht und Transporte brauchen – Energiepolitik für viele, nicht für wenige, kann man sagen – Ein Versprechen, dass die Wut grüner Aktivisten erregt hat, die Reduktionen der riesigen Subventionen für Windparks befürchten.
Betrügerische Wissenschaft kommt uns sehr teuer zu stehen
Hier folgen drei nicht so triviale Fragen, die Sie nicht im nächsten Quiz am Stammtisch finden werden. Erstens, um wie viel ist es auf der Welt wärmer geworden a) seit 1880 und b) seit 1997? Und was hat das mit Ihrer immer stärker steigenden Stromrechnung zu tun?
Die Antworten auf die ersten beiden Fragen könnten für Sie überraschend sein.
Seit 1880, dem Beginn fast weltweiter zuverlässiger Temperaturaufzeichnungen hat sich die Welt um etwa 0,75°C erwärmt.
Seit Anfang 1997 bis August 2012 ergibt sich jedoch aus den in der vorigen Woche veröffentlichten Daten ein Trend bei Null: Der Trend aus mehr als 3000 Stationen weltweit ist flach.
Überraschend: Die Nachricht, dass es auf der Welt seit 16 Jahren nicht mehr warmer geworden ist, kommt für Viele als eine Art Schock.
Nicht dass davon in den Medien in irgendeiner Form berichtet worden wäre, die sonst eifrig mit Klimadingen bei der Sache sind. Die Zahlen wurden ohne Aufhebens online gestellt, ohne begleitende Presseerklärung – anders als noch vor sechs Monaten, als sich noch ein leichter Erwärmungstrend gezeigt hat.
Die Antwort auf die dritte Frage ist vielleicht die Vertrauteste.
Ihre Rechnungen steigen, zumindest teilweise, wegen der ‚grünen’ Subventionen für die Industrie der erneuerbaren Energie, vor allem Wind.
Diese werden den normalen Haushalt etwa 100 Pfund in diesem Jahr kosten. Dieser Betrag dürfte stetig weiter steigen – und das, obwohl er nur aus einem einzigen Grund eingeführt worden ist:
wegen der weit verbreiteten Überzeugung, die von Politikern aller Couleur geteilt und schon den Grundschülern vermittelt wird, dass sich ohne drastische Einschnitte zur Reduktion von Kohlendioxid-Emissionen die globale Erwärmung mit Sicherheit bald erheblich beschleunigen und bis zum Ende dieses Jahrhunderts zu einer Katastrophe führen wird – könnte die Temperatur doch dann bis zu 5 Grad höher liegen.
Daher die Bedeutung der Antworten auf die ersten beiden Fragen. Die globale Industrialisierung während der letzten 130 Jahre hat nur einen relativ kleinen Unterschied gebracht.
Und für das durch das Parlament gepeitschte Gesetz, den CO2-Ausstoss des Landes bis zum Jahr 2050 um 80 Prozent zu senken, einem Projekt, dass Hunderte Milliarden kosten wird, ist die Nachricht von der seit 16 Jahren fehlenden Erwärmung so etwas wie ein Schock.
Damit stellt sich eine fundamentale Herausforderung der Hypothesen, die jedem Aspekt der Klimaänderungs- und Energiepolitik zugrunde liegen.
Dieses Plateau’ beim Temperaturanstieg bedeutet nicht, dass die globale Erwärmung an irgendeinem Zeitpunkt wieder einsetzen wird.
Abbildung: Die globale Erwärmung soll zum Teil durch das CO2-emittierende Verbrennen fossiler Treibstoffe verursacht worden sein. Diese Bild zeigt den Wrasen aus den Kühltürmen eines Kraftwerks. In den Medien oft und gern mit Rauch (die dünnen Rauchfahnen) aus den Schornsteinen verwechselt.
Aber einer zunehmenden Zahl von Klimawissenschaftlern zufolge zeigt es eher, dass die Computermodelle, die seit Jahren eine fortwährenden Untergang vorhergesagt haben und vom Met. Office und dem IPCC verwendet worden waren, falsch sind, und dass das Klima viel komplexer ist als die Modelle annehmen.
„Die neuen Daten bestätigen die Existenz einer Pause bei der globalen Erwärmung”, hat mir Professorin Judith Curry, Vorsitzende der School of Earth and Atmospheric Science at America’s Georgia Tech University gestern gesagt. Und weiter:
„Die Klimamodelle sind sehr komplex, aber sie sind nicht perfekt und unvollständig. Die natürliche Variabilität (der Einfluss von Faktoren wie langzeitlicher Temperaturzyklen in den Ozeanen und der Strahlungsfluss der Sonne) hatten erwiesenermaßen während der letzten zwei Dekaden eine Größenordnung, die den Treibhauseffekt übertrifft.
Es wird immer offensichtlicher, dass unser Beitrag zur Erwärmung seit 1980 sowie zukünftige Projektionen der Klimaänderung ein Überdenken der internen natürlichen Variabilität als Faktor von erheblicher Wichtigkeit erfordert“.
Von Professor Phil Jones, der sich vor drei Jahren im Zentrum des ClimateGate-Skandals wiederfand, wird normalerweise nicht erwartet, dass er ihr zustimmt. In zwei wichtigen Punkten hat er es aber doch getan.
Die Daten legen in der Tat ein Plateau nahe, räumte er ein, und ohne ein wesentliches El Nino-Ereignis – eine plötzliche dramatische Erwärmung des Südpazifik, welches unvorhersagbar auftritt und immer einen immensen Einfluss auf das globale Wetter hat – „könnte das auch noch eine Weile so weitergehen“.
Wie Prof. Curry räumt auch Prof. Jones des Weiteren ein, dass die Klimamodelle nicht perfekt waren: „Wir verstehen nicht vollständig, wie man Dinge wie Änderungen in den Ozeanen einbringt, und weil wir das nicht völlig verstehen, könnte man jetzt sagen, dass die natürliche Variabilität derzeit die Erwärmung unterdrückt. Wir wissen nicht, was die natürliche Variabilität macht“.
Und trotzdem besteht er darauf, dass 15 oder 16 Jahre keine signifikante Periode sind: Pausen derartiger Länge waren immer erwartet worden.
Dabei hat er schon im Jahr 2009 in einer durch ClimateGate bekannt gewordenen E-Mail an einen Kollegen gesagt: „Das Plateau, das sich bereits abzeichnet und von Wissenschaftlern diskutiert wird – unter dem Strich: der ‚Nicht-aufwärts-Trend’ muss insgesamt 15 Jahre andauern, bevor wir uns Sorgen machen“.
Aber obwohl dieser Zeitpunkt jetzt vorüber ist, hat er gesagt, dass er seine Meinung über die bedrohlichen Vorhersagen der Modelle nicht geändert hat: „Ich glaube immer noch, dass die gegenwärtige Dekade um 0,17 Grad wärmer ausfallen wird als die vorige, die wärmer war als die neunziger Jahre“.
Nur wenn das nicht der Fall sein sollte, würde er anfangen, sich ernstlich zu fragen, ob nicht irgendetwas noch Ausgeprägteres vor sich geht. Mit anderen Worten, aus der Periode von 15 Jahren, nach der er sich Sorgen machen würde, sind inzwischen 20 Jahre geworden.
Inzwischen ließen seine Kollegen am Met. Office nicht locker. Ein Sprecher sagte: „Die Wahl eines Start- oder Endpunktes im Kurzfristbereich kann sehr irreführend sein. Klimaänderung kann man nur aus multidekadischen Zeiträumen wegen der inhärenten Variabilität des Klimasystems ableiten“.
Er sagte, dass ein Andauern des Plateaus länger als 15 Jahre ‚unwahrscheinlich’ sei. Gefragt nach einer Vorhersage des Met. Office aus dem Jahr 2009 – dass drei von fünf aufeinander folgenden Jahren einen neuen Welttemperaturrekord erreichen würden – gab er keinen Kommentar. Da es keinerlei Anzeichen für einen starken El Nino im nächsten Jahr gibt, sind die Aussichten, dass dies so kommt, gering.
Warum all das von Belang ist, sollte offensichtlich sein. Jedes Quartal haben die Statistiken zur Wirtschaft und Modellaussagen zur zukünftigen Entwicklung massive Auswirkungen auf unser Leben. Sie lösen eine ganze Reihe politischer Reaktionen von der Bank of England und dem Schatzministerium aus, ebenso wie Myriaden von Entscheidungen durch private Industrien.
Und das, obwohl es seit dem Einbruch im Jahr 2008 offensichtlich geworden ist, dass sowohl die Statistiken als auch die Modellierung extrem unzuverlässig sind. Darum herum die Zukunft zu planen ist etwa genauso sinnvoll wie die Auswahl eines Hochzeitstermins drei Monate im Voraus nur aufgrund einer Wettervorhersage.
Nur wenige Menschen würden so dumm sein. Aber Entscheidungen mit weitaus größerer und teurerer Bedeutung aufgrund dieser Ergebnisse wurden und werden immer noch auf der Basis von Klimavorhersagen getroffen, nicht für drei Monate im Voraus, sondern für das ganze kommende Jahrhundert – und das trotz der Tatsache, dass Phil Jones und seine Kollegen jetzt zugeben, dass sie die Rolle der ‚natürlichen Variabilität’ nicht verstehen.
Das Deprimierendste an dieser Debatte ist, dass jeder, der das alarmistische Untergangsszenario in Frage stellt, automatisch als ‚Klimaleugner’ tituliert und angeklagt wird, die Zukunft der Menschheit aufs Spiel zu setzen.
Also nochmals zur Klarstellung: Ja, globale Erwärmung ist real und zumindest teilweise auf das durch fossile Treibstoffe emittierten CO2 zurückzuführen. Aber die beweise beginnen zu zeigen, dass sie viel langsamer vonstatten geht als die Katastrophisten behauptet haben – eine Schlussfolgerung mit enormen politischen Implikationen.
von David Rose; das Original ist in der Daily Mail UK erschienen
Bei WUWT finden sich noch folgende Zusatzbemerkungen:
Betrachtet man die Bedeutung der Periode seit 1997, sollte man sich daran erinnern, dass Dr. Ben Santer behauptet hat, dass die erforderliche Periode 17 Jahre beträgt:
http://wattsupwiththat.com/2011/11/17/ben-santers-17-year-itch/
Sie finden, dass troposphärische Temperaturaufzeichnungen mindestens 17 Jahre lang sein müssen, um zwischen internem Klimarauschen und dem Signal von anthropogen verursachten Änderungen der chemischen Zusammensetzung der Atmosphäre zu unterscheiden.
Professor Richard Lindzen am MIT hat Ähnliches in einem Gastbeitrag auf WUWT geschrieben:
‚Es gab seit 1997 keinen Erwärmungstrend mehr und keine statistisch signifikante Erwärmung seit 1995’.
Bob Tisdale hat einen 17- und einen 30-Jahre-Trend verglichen hier.
Hier findet man den Datensatz von HADCRUT4.
Link: http://wattsupwiththat.com/2012/10/13/report-global-warming-stopped-16-years-ago/
Übersetzt von Chris Frey EIKE
Update 16.10.12 15:46 Uhr
Das Metoffice hat sich jetzt zu diesem Vorgang geäußert. Details samt Kommentaren (nur in Englisch) hier
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Martina sagt:Hallo, ich wollte mich mal ffcr die tolle Anleitung benekdan. Nach anfe4nglicher Skepsis ob die We4sche auch sauber wird (bei 3 Kindern), mache ich mein Waschmittel inzwischen nur noch selber.Bei den Mengen, die ich brauche spart das wirklich Geld und es ist ein tolles Geffchl nicht mehr auf ein Industrieprodukt angewiesen zu sein. (Und die Umwelt dankt es)LG
Hallo Herr Baecker,
„Das habe ich auch nicht behaupten wollen. Man kann so was schon objektiv messbar machen. Nur kann es sein, dass man für verschiedene Definitionen unterschiedliche Verhältnisse rauskommen. Da braucht man sich nicht zu wundern und der Laie wird irritiert.“
Da bin wieder ganz bei Ihnen. Um nichts anderes ging es mir mit der Aussage, dass der Punkt „objektiv definierbar ist“. Das es dabei verschiedene Definitionen geben kann mit unterschiedlichen Ergebnissen, das liegt in der Natur der Sache.
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Hallo Herr Heß, Sie fragen mich:
„Wie groß war der Anteil des CO2 an der Erwärmung im 20. Jahrhundert und speziell in den letzten beiden Dekaden. Quantitativ mit Fehlerbalken und Bestimmungsmethode.“
Es tut mir leid, aber ich bin kein Klimaforscher und lese auch nicht täglich wiss. Publikationen zu dem Thema, um Ihnen darauf eine fachgerechte Antwort geben zu können.
„Dominanz ist ja keine wissenschaftliche Größe sondern meistens nur eine Erfindung der Journalisten bei den Olympischen Spielen.“
Eine etwas eigentümliche Feststellung. Der Begriff wird in vielen Wissenschaftsfeldern und im Alltagsgebrauch verwendet.
Lieber Herr Stehlik,
„Eine marginale Konzentrationsänderung soll hier die „Erde 2050 explodieren lassen“
Ich kann mir vorstellen, dass Chemiker eine Praeferenz fuer Explosives haben, aber bitte hoeren Sie doch auf zu traeumen und halten Sie sich an die wissenschaftlichen Aussagen. 2050 als Ende der Erde auszurufen, macht Sie nur zum Hanauer Notradamus.
„Die Physik ist für die Temperatur der Erde bedeutungslos. Es kommt auf die Chemie der Erde an“
Schon wieder Esoterik. Keine Chemie ohne Physik, das wissen auch die Chemiker.
Lieber Herr Zuber,
wenn Sie sich ueber fingerprints aufschalauen wollen, auch der Laien findet nach wenigen Sekunden googlen unter den Stichworten ‚fingerprint‘ ‚ climate‘ u.a. wissenschaftliche Abhandlungen dazu. Man muss nicht studiert haben, um sich da aufklaeren zu koennen, eigenes Interesse an Wissenscahft reicht.
@ #105: Dr. Gerhard Stehlik sagt am Samstag, 27.10.2012, 18:28
„Die Physik ist für die Temperatur der Erde bedeutungslos.“
Sie wissen offensichtlich nicht was Physik ist.
@ #105: Dr. Gerhard Stehlik sagt am Samstag, 27.10.2012, 18:28
„Es kommt auf die Chemie der Erde an.“
Das ist falsch. Die Chemie liefert nur eine kleinen Beitrag, z.B. durch die Chemie der Ozonzerstörung.
Sie wissen noch nicht mal, was Physik ist, wollen aber physikalische Aussagen beurteilen. Das ist noch nicht mal als Witz zu gebrauchen.
MfG
Lieber Dr Paul,
„Oder halten Sie alle für blöd“
Das ist keine Ansichtssache, sondern belegen die Teilnehmer germe selber durch ihr Verhalten.
PS das zweite „nicht“ bitte streichen
#106: NicoBaecker meint absichtlich oder unter Einfluss eines Getränks? :
„Das IPCC beruht sich auf der signifikant nicht ohne treibhausgase nicht erklaerbaren Modellierung des juengsten Klimaverlaufs ohne den „Grad der Unerklaerbarkeit“ zu quantifizieren.“
Doppelte Verneinung : nicht nicht bedeutet ja,
„Modellierung“ klappt natürlich auch ohne CO2,
vermutlich besser als mit,
da das Modell dann näher an der Realität wäre.
Wenn es nun seit 16 Jahren leicht abkühlt und das CO2 stetig steigt,
sollte man das CO2 als „Erwärmer“ schleunigst vergessen!!!
Was ist so schwierig daran,
den Verstand einzuschalten Baecker und CO ???
Oder halten Sie alle für blöd?
mfG
@103: Nanu, Herr Baecker, warum so faul? Zuerst geben Sie zu, dass die „globale Mitteltemperatur“ wegen der „schwachen Klimasignalstärke“ des steigenden CO2 im kurzfristigen Rauschen der „Klimavariabilität“ (heisst ja wohl der normalen kurzfristigen Temperaturasschläge) nicht nachweisbar sei (da haben Sie ja ausnahmsweise einmal recht; aber sagen Sie dies ja nicht Rahmstorf, denn der würde Sie dafür höchstwahrscheinlich gerne verdreschen), aber dann befriedigen Sie sich ersatzweise gleich mit angeblichen „Fingerprints“, auf Grund derer Sie offenbar die Wirkung Ihres heiligen CO2 sehen können wollen. Vermutlich meinen Sie damit anekdotische Erinnerungen von kalten, schneereichen Wintern in den 50-iger Jahren, die Sie heute vermissen, und ähnlich unhaltbaren wissenschaftlichen Schwachsinn??
Sind Sie denn schon so auf den Hund gekommen??
#103: NicoBaecker, Sie konnten keinen einzigen „fingerprint“ nennen,
das lässt sich nicht durch ausgesprochene Rüpelei ersetzen.
mfG
Lieber Herr Hess,
in der summary og policy makers wir der CO2 Ursachenanteil auch nicht quantifiziert, m.W.. Es gibt ein paar andere paper zur quantifizierung des anthropogenen Treibhausgasanteils. Das IPCC beruht sich auf der signifikant nicht ohne treibhausgase nicht erklaerbaren Modellierung des juengsten Klimaverlaufs ohne den „Grad der Unerklaerbarkeit“ zu quantifizieren.
#59: Günter Heß sagt am Freitag, 19.10.2012, 20:32:
„Aber Herr Bäcker und Herr Ebel vertreten hier die Physik der Atmosphäre korrekt, ähnlich wie Herr Lüdecke.“
Ich hoffe der Pressesprecher von EIKE, Professor Dr. Host Lüdecke, fühlt sich geehrt durch diesen Vergleich. Mehr möchte ich an dieser Stelle dazu nicht sagen.
Die Physik ist für die Temperatur der Erde bedeutungslos. Es kommt auf die Chemie der Erde an. Den Beweis dafür liefert die CO2 Debatte selbst. Eine marginale Konzentrationsänderung soll hier die „Erde 2050 explodieren lassen“. Und da sage ich als Chemiker, dass die Herren Bäcker, Ebel und Lüdecke die Chemie der Erdoberfläche, auf die es vor allem ankommt, nicht korrekt vertreten. Auch in diesem Punkt passen sie ganz gut zusammen.
Lieber Herr Bäcker #92,
deshalb kann man auch die Summaries for Policymakers des IPCC nicht ernst nehmen, weil man die Aussagen vieler politisierender Klimaforscher nicht ernst nehmen kann.
Kennen Sie andere Paper die den Anteil des CO2 an der Erwärmung im 20. Jahrhundert quantitativ
bestimmen.
Mit freundlichen Grüßen
Günter Heß
Herr Zuber,
nun mal nicht so faul und lesen Sie selber.
Leser Baecker, wo sind Ihre grossartigen „Fingerprints“?????
Finden Sie keine mehr?!
#98: Emil Thomas
haben Sie das wirklich nicht verstanden oder wollen Sie sich unbedingt selber so dumm darstellen? Oder warum verfälschen Sie mein Beispiel jetzt nochmal genauso, wie ich es für eine Fälschung wissenschaftlicher Aussagen dargestellt habe.
Also nochmal für alle:
Die Aussage eines Wissenschaftlers X: „Schnee ist schwarz im Infrarotbereich“ ist korrekt und wissenschaftlich nachgeprüft. Vorsätzlich oder aus Dummheit unvollständig gemacht ist die Aussage „Schnee ist schwarz“ blödsinnig.
Vorsätzlich verleumderisch ist die Aussage „der Wissenschaftler X hat behauptet, Schnee ist schwarz“.
Betrügerisch und verleumderisch ist die Aussage „der Wissenschaftler X hat behauptet, Schnee ist im Sichtbaren schwarz“
Sie können sich nun aussuchen, ob Sie die Leser betrügen wollen oder einfach nur zu dumm sind. Jedenfalls steht fest, das Ihre Aussage nicht die von mir ist!
@ Axel Fischer:
Zitat:
Für jedes im IPCC-Bericht verwendetes Modell ist eine Simulation des letzten Jahrhunderts Pflicht. Es passt verdammt gut. Manche dieser Modelle hat man auch verwendet, um das Klima des letzten Jahrtausends zu simulieren. Sieht auch gut aus…“
Mal wieder der Wunsch Vater der Aussage.
Die GCM´s geben nicht mal das 20. Jhdt. passabel wieder. Die Tricks in den Darstellungen sind gut bekannt und nur Laien fällt nicht auf, was hier gespielt wird. Die Erwärmung von ca. 1900 bis 1940 ist real mit jeder aus 1980 bis 2010 vergleichbar, im Modell um den Faktor 3 schwächer. Von der Erwärmung seit ca. 1850 bis 1940 gar nicht zu reden, außer man neigt immmer noch zum Hockeyspieler. Die Modelle werden dann noch nach Belieben mit der Aerosolschraube getrimmt, damit man die leichte Abkühlung irgendwie erlären kann (1940 bis 1970) und in Summe geht es diesen Modellieren ja nur darum, den CO2 Effekt möglich groß werden zu lassen und mit ihm freilich die vermeintlichen Feedbacks.
Fazit, die Modelle sind Schrott und wenn man zusätzlich bedenkt, dass die tatsächlichen Emissionen seit 1990 in etwa dem sg. worst case entsprechen, dann liegt der Erwärmungtrend der letzten 3 Dekaden bereits deutlich unter dem Modellbereich.
#97
Herr Innerhofer, warum so persönliche Vorurteile, welche Laus ist Ihnen über die Leber gelaufen, Sie kennen mich doch gar nicht? Ihre Diskussionsbeiträge halte ich ja in vielen Fällen für stichhaltig, aber wenn Sie so vorurteilsbeladen argumentieren, müssen Sie verstehen, wenn ich von nun an an Ihrer wissenschaftlichen Objektivität zweifeln muß.
Sie sollte doch mit Befriedigung zur Kenntnis nehmen, daß in diesem Forum – im Gegensatz zu vielen anderen – ausgebildete Naturwissenschaftler diskutieren.
Und mir als Naturwissenschaftler werden Sie zugestehen müssen, meinen eigenen Verstand einsetzen und Für und Wider abwägen zu dürfen ohne von Ihnen beschimpft zu werden.
Für mich zählt in erster Linie der Descartesche Spruch: Dubito ergo sum.
@#85: NicoBaecker
Warum, Herr Baecker, soll derjenige, der die Aussage „Schnee ist schwarz“ skeptisch sieht, sich den Aufwand machen, die Aussage zu widerlegen?
So lange Klimamodelle weder Gegenwart noch Vergangenheit reproduzieren können, sind sie für die Zukunft nicht brauchbar. Eine ungefähre Korrelation zwischen Modell und Realität ist nicht ausreichend, denn die Fehlertoleranz ist damit unbekannt und jegliche Projektion irreführend.
Sie mögen zwar komplex denken können, aber dieses grundlegende Verständnis scheint Sie nicht zu erreichen.
Vielleicht hat es Angst davor.
schon wieder ein Doktor, Hahn
und schon wieder die unheimliche Korrelation, wer nix weiß, schreibt Titel vor seinen Namen, siehe Paul usw.
Meiner einer hat das nur in diesem Post Not um die Peinlichkeit dieser Pauls & Co etwas hervorzuheben.
Was behaupten sie, Herr Hahn?
Die Wissenschaft müsste für sie und eine weitere Hand voll Fantasten beweisen, dass 1+1 zwei ergibt?
Ok, sie glauben nicht, dass 1 und 1 zwei ergibt und haben gleichzeitig nichts dazu zu bieten, was ihren Wahn stützen würde. Außer eben die „Hand Voll Spinner“ dieser Erde.
Schaun sie, wenn sie es schon für nötig empfinden, einen Titel vor ihren Namen zu hängen, dann wäre es sehr angebracht, wenn sie nicht nur wie ein Erstklassler auftreten würden. Das kennen wir hier schon und ist „landläufig“ ein klares Zeichen für gröbere Minderwertigkeitskomplexe.
Zeigen sie uns anhand der anerkannten Physik, der Dynamik der Atmosphäre, der Strahlungseigenschaften im Medium, wo genau der „große Schwindel“ denn besteht! Wenn sie das nicht mal halbwegs schaffen, dann mischen sie sich doch einfach nicht in Dinge ein, die sich nicht mal annähernd verstanden haben. Schaffen sie das?
@ Dr. Hahn
Für jedes im IPCC-Bericht verwendetes Modell ist eine Simulation des letzten Jahrhunderts Pflicht. Es passt verdammt gut. Manche dieser Modelle hat man auch verwendet, um das Klima des letzten Jahrtausends zu simulieren. Sieht auch gut aus, wie gut, ist schwerer zu entscheiden, weil keine thermometrischen Aufzeichnungen über diesen Zeitraum existieren.
Sind wir jetzt fertig? Ist Wissenschaft wirklich so einfach?
Leider nein. Damit ist noch längst nicht bewiesen, dass die Modelle richtig sind. Aber es begründet einen Teil der Zuversicht darin. Zuversicht darin, dass diese beileibe nicht perfekt sind, aber gut brauchbar für unsere Zwecke.
@Leser Baecker: Sie haben grossmaulig von „Fingerprints“ gesprochen. Jetzt lassen Sie uns doch bitte nicht warten und erkären den staunenden Zeitgenossen die „speziellen Bäckerschen Fingerprints“
@ Dr. Hahn #87
Selbstredend hat der Nutzer eines GCM – üblicherweise Klimamodell genannt – die Beweispflicht, daß sein Modell das Klima -ja, was ist das überhaupt – für jeden Ort der Erde korrekt im Zeitablauf wiedergibt – wohlgemerkt in der Vergangenheit, denn die Zukunft ist einer Prüfung nicht zugänglich.
Können die GCM nachweislich nicht.
Aber wie der Mensch nun einmal ist, nicht erst seit dem Orakel der Griechen, vertraut er lieber Kristallkugeln, Horoskopen und …, statt seinem rationalem Verstand, denn aber leider offensichtlich nur Wenige haben.
#85: NicoBaecker,
jetzt verfallen Sie schon wieder in Ihre unqualifizierte Stänkerei.
Reicht es mal wieder nicht für Gegenargumente?
Sie können Ihre wissenschaftliche Seriosität gerne demonstrieren,
in dem Sie die sensationelle Behauptung von Ebel über die „konvektionsbedingte Adiabatik“ der Troposphäre für falsch erklären.
mfG
Lieber Herr Heß, #81
der Nachweis des Einflusses aufgrund gestiegener Treibhausgase erfolgt ja nicht ueber die die eindimensionale globale Temperaturkurve, sondern ueber Muster, die viel spezifischer die Einflussfaktoren abbilden. Die well-mixed Treibhausgase unterscheiden sich im Muster aber nicht, daher kann der Anteil des CO2 daran wohl nur durch seinen Anteil am radiative forcing dieser Gase quantifizieren. Ich wuerde Rahmsdorf da nicht weiter Ernst nehmen und mich an der wissenschaftlichen Literatur orientieren.
Die Modelle stimmen 😉
http://tinyurl.com/dxzpyaz
Lieber Herr Hahn
„Wenn die Modelle stimmen, müßten diese das Klima für die vergangenen Jahrhunderte exakt reproduzieren, ganau so wie den gegenwärtigen Erwärmungsstop“
Sie haben eine naive Vorstellung von Naturgesetzen. Bringen Sie mal ein Beispiel fuer ein Modell, welches exakt mit Messwerten uebereinstimmt, exakt im mathematischen Sinne.
Lieber Herr Hahn, #87
„Sie fordern eine Umkehrung der Beweislast.“
Nein, wenn behauptet wird, dass die Aussagen des IPCC auf Klimamodellen beruhen, die das Klima mit Hilfe des SB-Gesetz beschreiben, so wird derjenige, der dies behauptet, dies belegen müssen.
Lieber Herr Hader #84,
keine Ahnng was sie definieren wollen, wenn Sie schreiben:
„Ich muss ihm aber widersprechen, dass so eine Frage grundsätzlich nicht objektiv definierbar ist. Natürlich ist sie das, man muss sich halt entsprechend die Mühe machen zu sagen, was Dominanz in der Klimaentwicklung bedeutet.“
Meine Frage an Sie ist schlichtweg.
Wie groß war der Anteil des CO2 an der Erwärmung im 20. Jahrhundert und speziell in den letzten beiden Dekaden. Quantitativ mit Fehlerbalken und Bestimmungsmethode.
Dominanz ist ja keine wissenschaftliche Größe sondern meistens nur eine Erfindung der Journalisten bei den Olympischen Spielen.
Mit freundlichen Grüßen
Günter Heß
#86: NicoBaecker sagt:
Warum gibt es eigentlich keinen Skeptiker, der bewiesen hat, warum die Physik in den Klimamodelle angeblich falsch ist? Das wird ständig behauptet, aber niemand hat Beweise geliefert.
Sie fordern eine Umkehrung der Beweislast. Es wäre aber Aufgabe der Klimamodellierer zu beweisen, daß ihre Modelle stimmen, und zwar anhand korrekter Daten für das Klima.
Wenn die Modelle stimmen, müßten diese das Klima für die vergangenen Jahrhunderte exakt reproduzieren, ganau so wie den gegenwärtigen Erwärmungsstop.
Wenn sie das nicht können, sind die Modelle falsch – so einfach ist Naturwissenschaft.
Lieber Herr Hader,
„Ich muss ihm aber widersprechen, dass so eine Frage grundsätzlich nicht objektiv definierbar ist. Natürlich ist sie das, man muss sich halt entsprechend die Mühe machen zu sagen, was Dominanz in der Klimaentwicklung bedeutet.“
Das habe ich auch nicht behaupten wollen. Man kann so was schon objektiv messbar machen. Nur kann es sein, dass man für verschiedene Definitionen unterschiedliche Verhältnisse rauskommen. Da braucht man sich nicht zu wundern und der Laie wird irritiert.
Lieber Herr Zuber, #83
„So, so, „Fingerprints“. In der „Globaltemperatur“ können Sie das angebliche anthropogene CO2 Forcing wegen ungenügender Fingerprints nicht ausmachen“
dass die Wissenschaft an Ihnen vorbeigeht, ist ja nichts Neues.
Und dass Skeptiker mit Ihrer Skepsis nicht an der Wissenschaft, sondern an den Konglomeraten, die die Medien und sonstige Sekundärliteratur so liefern, ansetzen, ist auch evident.
Warum gibt es eigentlich keinen Skeptiker, der bewiesen hat, warum die Physik in den Klimamodelle angeblich falsch ist? Das wird ständig behauptet, aber niemand hat Beweise geliefert.
Lieber Herr Heß, ich stimme Herrn Baecker auch zu, „dass die Frage „welcher Einfluß dominierte das Klima in den letzten Dekaden des 20. Jahrhunderts“ wissenschaftlich nicht exakt definiert ist“. Ich muss ihm aber widersprechen, dass so eine Frage grundsätzlich nicht objektiv definierbar ist. Natürlich ist sie das, man muss sich halt entsprechend die Mühe machen zu sagen, was Dominanz in der Klimaentwicklung bedeutet.
@82 Leser Baecker: So, so, „Fingerprints“. In der „Globaltemperatur“ können Sie das angebliche anthropogene CO2 Forcing wegen ungenügender Fingerprints nicht ausmachen (na klar nicht, bravo zu dieser epochalen Erkenntis, die die AGW Kritiker schon seit Jahrzehnten haben). Und jetzt hoffen Sie also auf sogenannte „Fingerprints“, die zeigen sollen, dass das böse menschliche CO2 so furchtbar gefährlich ist.
Schiessen Sie mal los mit Ihren famosen „Fingerprints“, die wichtigsten zuerst, bitte schön. Damit man Ihnen auch diesen Teil des Klimawahnsinns endlich einmal austreiben kann.
Lieber Herr Hess,
alleine die triviale Tatsache, dass man durch eine Filterungen Varianzanteile in der Temperaturkurve wegfiltern kann, macht es dringend notwendig, dass man GENAU spezifiziert, auf welche Temperaturdaten sich die Quantifizierung der Kausalitaeten bezieht. Hier hat mal ein Herr Kuhnle etwas dazu geschrieben, wenn sein Beitrag etwas inhaltliches enthalten sollte, so vielleicht das, dass bei einer Tiefpassfilterung die Gewichte sich zu den langsam aendernden Einflussfaktoren verschieben. Wenn man nur 30 Jahresmittel naehme, so wuerden externe Einflussfaktoren, die quasiperiodisch mit kleinerer Periode sind, als Einfluss fuer die Varianz auf der 30 Jahresskala verschwinden, waehrend sie auf der Jahresskala evtl. dominant waeren.
Zum Wolkenforcing. Hier hatte ich auch schon mal geantwortet, dass die MessDaten dazu m.W. nicht konsistent sind. Ausserdem ist immer noch die Frage, wie weit diese Daten durch Modelle erklaert werden. Wolken sind ja kein externes forcing. Ferner berufen sich die Forscher bei der Kausalzuordnung und der Aussage, dass anthropogenes forcing nicht vernachlaessigbar ist, oder sogar die letzten Jahrzehnte dominant (wie auch immer dies bewertet wird) nicht alleine auf den Verlauf der globalen Mitteltemperatur, sondern auf Fingerprints. Dass die Kausale Zuordnung nur mithilfe der globalen temperaturkurve heute noch wegen fehlender Signalstaerke nicht moeglich ist, ist schon lange bekannt.
Lieber Herr Bäcker #80,
sie schreiben:
„Kann sein, dennoch ändert das ja nichts an der Tatsache, dass die Frage „welcher Einfluß dominierte das Klima in den letzten Dekaden des 20. Jahrhunderts“ wissenschaftlich nicht exakt definiert ist oder definierbar ist. Die „Trendmetrik“ gibt darauf keine restlose Antwort.“
Da bin ich ganz ihrer Meinung. Diese Schlußfolgerungen sind nicht zulässig und wer behauptet der Einfluß von CO2 oder das anthropogene Forcing hat in den letzten beiden Dekaden des 20. Jahrhunderts dominiert überinterpretiert die Datenlage meiner Meinung nach.
Ich habe ja auch nur dieses Paper zitiert , um zu zeigen, dass es Paper gibt die so interpretiert werden können. Meine Frage an Rahmstorf war ja nach CO2. Als Antwort habe ich dieses Paper bekommen.Das zeigt, dass eben auch oft CO2 mit anthropogenem Forcing gleichgestzt wird.
Die Diskussion damals zeigte meines Erachtens, dass selbst gut ausgebildete Klimawissenschaftler wie Prof. Rahmstorf dieses Paper überinterpretieren und anthropogene Forcings mit CO2 gleichsetzen. Da ist es doch klar, dass Laien in der Interpretation weit darüber hinaus schießen können. In beide Richtungen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Heß,
„die Interpretation war und ist ja nicht von mir.
Prof. Rahmstorf hat mir das geantwortet bzw. das Paper zitiert auf meine Frage welchen Beitrag CO2 leistet im 20. Jahrhundert und speziell in den letzten beiden Dekaden des 20. Jahrhunderts, wie Sie wissen.“
Ja, ich halte Rahmsdorf oder wer auch immer sonst noch diese Metrik benutzt, trotzdem nicht für sinnvoll.
„Nun ist das ja offensichtlich eines der zentralen Papiere uf dem die Aussage beruht, dass die anthropgenen Forcings in den letzten Dekaden des 20. Jahrhunderts dominieren. “
Kann sein, dennoch ändert das ja nichts an der Tatsache, dass die Frage „welcher Einfluß dominierte das Klima in den letzten Dekaden des 20. Jahrhunderts“ wissenschaftlich nicht exakt definiert ist oder definierbar ist. Die „Trendmetrik“ gibt darauf keine restlose Antwort.
Lieber Herr Bäcker,
sie schreiben:
„Die relativen linearen Trends als „Metrik“ für den Einfluß zu nehmen, ist kein sinnvolles Maß.“
Wie gesagt ich habe mich da nur an die Antwort von Prof. Rahmstorf gehalten, die ich in #76 zitiert habe. Er hat ja wohl ebenso gerechnet oder wo kommen seine größer 100% her?. Aber einverstanden diese ganzen statistischen Spielereien wie Ensemblemittel und multivariate Kurvenfits an Temperaturkurven können höchstens grobe Vermutungen sein wenn es darum geht die Ursachen einer Erwärmung in einem endlichen Zeitraum aufzuspüren. das macht auch ein Korrelationskoeffizient nicht besser, wenn man einen Parameter gar nicht berücksichtigt. Man muß schon direkt Wolkenbedeckung, Wasserdampfgehalt, ocean heat content, Strahlungsbilanz etc genau genug messen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Bäcker,
die Interpretation war und ist ja nicht von mir.
Prof. Rahmstorf hat mir das geantwortet bzw. das Paper zitiert auf meine Frage welchen Beitrag CO2 leistet im 20. Jahrhundert und speziell in den letzten beiden Dekaden des 20. Jahrhunderts, wie Sie wissen. Nun ist das ja offensichtlich eines der zentralen Papiere
auf dem die Aussage beruht, dass die anthropgenen Forcings in den letzten Dekaden des 20. Jahrhunderts dominieren.
Eine statistische Übung.
Haben Sie schon ein anderes Paper gefunden auf meine Frage.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hess, #72
Zum Rind/Lean 2008 paper:
Zunächst mal ist es klar, dass sich diese multivariate Analyse auf den gesamten Zeitraum 1889 bis 2006 bezieht. Die mit der Analyse bestimmten optimalen Fitparameter Amplitude und lag für jeden der 4 gewählten Einflußfaktoren ist also optimiert für den gesamten Zeitraum. Wenn man nur Teilintervalle nehmen würde, würden auch andere optimale Fitparameter auskommen. Ich würde dieser Analyse gar nicht so viel Bedeutung zumessen, schließlich ist es nur eine von unzähligen Möglichkeiten, den beobachtbaren globalen Temperaturverlauf empirisch quantitativ durch Einflußparameter zu beschreiben. So kann man natürlich die Analyse noch auf nicht-linerare Zusammenhänge erweitern und ebenso das Set der Einflußparameter, z.B. das cloud forcing, wobei diese untereinander orthogonal sein sollten. Ob das cloud forcing nun linear unabhaengig vom anthropogenen Forcing ist, waere gesondert zu untersuchen. Von dem Lean/Rind Ansatz strikt zu unterscheiden sind die physikalischen Modelle in Form von GCMs, denn diese fitten nicht, sondern berechnen den Temperaturverlauf aus first principles.
Wie Herr Hader schon erklärt hat, ist der Korrelationskoeff. Zwischen Fitmodell und gemessener Temperaturkurve 0.87. Mehr geht mit diesem Modell nicht. Also ist für jeder einzelnen Einflußparameter auch nicht mehr möglich.
„Ein Anstieg durch anthropogenen Forcings von 1955 bis 2005 von 0.136 K pro Dekade
und durch den Rest der Forcings von 0.018 K pro Dekade. Macht 88%.“
88% = 0.136/(0.136+0.018). Die relativen linearen Trends als „Metrik“ für den Einfluß zu nehmen, ist kein sinnvolles Maß. In der Mathematik verwendet man üblicherweise die erklärten Varianzen. Wenn die Temperaturkurve die Varianz V hat, so gibt V = VU + VE, VE ist der erklärte Teil VE=r^2 *V, VU der unerklärte: VU = (1-r^2)*V. Mit r = 0.87 hat man r^2 = 76%. Also ist schon mal 24% = 1-r^2 der Temperaturkurve unerklärte Varianz. Der erklärte Varianzanteil setzt sich hier nun zusammen aus den 4 Einzelvarianzen der 4 gewählten Einflußfaktoren. Der Einfluss wird durch den Koeffizienten c quantifiziert, mit der Einheit Kelvin pro Einheit des Einflussparameters. Da die Koeffizienten fuer die Gesamtkurve bestimmt sind, ist der anthropogene Effekt (wie der aller anderen Einflussparameter des Sets) pro Einheit konstant geblieben und die letzten Jahre nur gestiegen, weil der Einflussparameter relativ zu den anderen angewachsen ist.
Lieber Herr Hader #75,
ja da wäre ich auch vorsichtig in meiner Interpretation.
Aber ich habe nur Prof. Rahmstorf zitiert:
„[Antwort: Lean&Rind 2008 kommen für den Zeitraum 1905-2005 auf eine anthropogene Erwärmung von 0.059 ± 0.001 K, von einer insgesamt beobachteten Erwärmung um 0.074 ± 0.018 K. (wobei Kelvin bei Temperaturdifferenzen natürlich gleich Grad Celsius ist, wieso legen Sie Wert auf Kelvin??)
Der vom Menschen verursachte Anteil ist demnach in diesem Zeitraum 80%. (Über die letzten 25 Jahre liegt er übrigens über 100%, da die natürlichen Einflussfaktoren abkühlend wirkten, u.a. durch die Abnahme der Leuchtkraft der Sonne. Stefan Rahmstorf]“
http://tinyurl.com/8gad9gd
Mit freundlichen Grüßen
Günter Heß
Hallo Herr Heß, „Lean und Rind 2008“ ist schon deshalb kein Gegenbeispiel für die Aussage „Also zum einen kenne ich keine wiss. These, die ausschliesslich von CO2 als Grund für den Temperaturanstieg ausgeht“, weil dort der CO2-Anteil nur eines von 8 Parametern ist, welches unter anthropogene Forcing läuft.
„Das Lean und Rind Paper kommt durch einen Kurvenfit zu dem Schluß, dass überwiegend anthropogenen Forcings für den Anstieg der Temperaturen verantwortlich ist. Für die letzten 25 Jahre sogar fast ausschließlich.“
Das mit dem „überwiegend“ ist ja bekannt. Bei dem letzten Punkt wäre ich aber vorsichtig, mit der Schlussfolgerung. Rein rechnerisch mag es Zeitintervalle geben, wo das Anthropogenic Forcing mehr zur Erwärmung beiträgt, als tatsächlich real stattfindet. Dafür können andere Einflüße zu einer Erkaltung führen. Das ist aber nicht gleichbedeutend mit der Aussage, dass man CO2 als alleinigen Grund für den Temperaturanstieg ausgeht. Die Welt ist in der Regel nicht monokausal.
@Herr Hader: Über niedrige menschliche Instinkte/Handlungen und Wissenschaft!
Neben den hehren Prinzipen anständiger wissenschaftlicher Arbeit (Ehrlichkeit des Forschers, generell hohe moralische Standards bezüglich des Umgangs mit dem Untersuchungsgegenstand oder anderen Forschern etc.) gibt es Reihe schlechter bzw. miserabler oder sogar verdammenswerter bzw. verurteilenswerter Verhaltensentgleisungen bei Wissenschaftlern.
Dazu gehören:
1) Vorsätzlicher Wissenschaftsbetrug zur Erschleichung von Vorteilen (persönliche oder gruppen-bezogene für die Gruppe, zu der sich der Forscher zugehörig fühlt). Dazu gehört das verfälschende Darstellen von experimentellen Daten, eigentliche Datenfälschungen, die gar nicht der Realität entsprechen, etc.
2) Primitiv parteiisches Verhalten von Gruppenmitglieder eines Lehrmeinungsgruppe mit Anspruch auf absolute Wahrheit („wir sind der Konsens der Klimatologen und daher haben wir recht“). Wer nicht der Konsensgruppe angehört wird von der „Community“ geschnitten, öffentlich bekämpft, dessen Publikationsabsichten in Peer-reviewed Journals werden böswillig hintertrieben, wenn die Möglichkeit dazu besteht (jedenfalls nicht grossmütig gefördert, das jedenfalls schon gar nicht), der wird im Hintergrund intrigant hintertrieben bezüglich Zugang zu Forschungsgeldern etc.
3) Primitiv-hysterische Kommunikation der einseitigen, parteiischen Weltsicht in der Öffentlichkeit im politischen Stile des widerlichen Lobbyismus mit plakativen, vereinfachten Slogans, damit jedermann, der von der Sache nichts versteht meint, er würde die Sache ganz einfach und klar verstehen („klar, ich muss die CO2 Wärme wieder abkühlen“). Es geht dabei dem fehlenden Forscher um hysterisch, profilneurotische Selbstdarstellung zur Erschleichung grosser öffentlicher Bedeutung und der Anmassung einer Entscheidungskompetenz in politischen Fragen („der Forscher als Auftraggeber bzw. fordernder Berater für Regierungen“).
Ein besonders übles Verhalten im Umgang mit wissenschaftlichen Daten zeigt leider die amerkanische Regierunsgbehörde NOAA, die für die Sammlung der weltweit erhobenen Temperaturdaten in einer zentralen Datenbank (GHCN Datebnbank) verantwortlich ist. Darin sind Temperaturdaten aus der ganzen Welt weit in das 19. Jahrhundert zurück abgespeichert. Das skandalöse Verhalten von NOAA besteht nun darin, dass NOAA immer wieder Anpassungen der gemessenen Temperaturdaten aus der ganzen Welt vornimmt, und dabei JEDESMAL eine Nachkorrektur historischer Daten nach oben Richtung Temperaturerhöhung erfolgt.
Was meinen Sie, Herr Hader, wenn jemand, der so tut als wäre er objektiv, 20 Mal hintereinander bereits längstens erhobene Daten unter dem Vorwand der Datenverbesserung anpasst („korrigiert“) und dabei JEDESMAL eine Datenkorrektur in die politisch erwünschte Richtung einer Temperaturerhöhung resultiert, UND KEIN EINZIGES MAL EINE KORREKTUR RICHTUNG TEMPERATURABNAHME, wie wahrscheinlich es ist, dass NOAA dabei vorsätzlich betrügt?? Können Sie die Wahrscheinlichkeit eines Betrugs für diesen Fall beziffern? Meine Schätzung der Wahrscheinlichkeit der Betrugsabsicht von NOAA beträgt circa 99.9%!
Lieber Herr Kuhnle #76,
In den letzten beiden Dekaden des 20. Jahrhunderts ist die Wolkenbedeckung abgesunken, gemessen vom ISCCP. Das dadurch verursachte „cloud radiative Forcing könnte zum Beispiel den Sprung erklären.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Hader #67,
Wie lesen Sie den Tabelle 1 in dem Lean and Rind Paper.
Ein Anstieg durch anthropogenen Forcings von 1955 bis 2005 von 0.136 K pro Dekade
und durch den Rest der Forcings von 0.018 K pro Dekade. Macht 88%.
Das IPCC berichtet 0.128 K pro Dekade für den Zeitraum.
Für die Zeit 1979 bis 2005: 0.199 K pro Dekade fürs anthropogene Forcing und 0.009 K pro Dekade für den Rest. Macht 96%.
Das IPCC berichtet 0.177 K pro Dekade für den Zeitraum.
Wie ich es geschrieben habe. Das Lean und Rind Paper kommt durch einen Kurvenfit zu dem Schluß, dass überwiegend anthropogenen Forcings für den Anstieg der Temperaturen verantwortlich ist. Für die letzten 25 Jahre sogar fast ausschließlich.
Mit freundlichen Grüßen
Günter Heß
Sehr geehrter Herr Dr.Kuhnle, ich habe nicht geschrieben, dass ich einen dauerhaften Temperatursprung für physikalisch ausgeschlossen halte. Ich sehe ihn aber in den Rohdaten zu den globalen Temperaturen nicht. Für lokale Gebiete mag man soetwas beobachten, die kenne ich zu wenig. Was man in Deutschland auf lange Sicht beobachtet, das von 1981-2010 eine Durchschnittstemperatur von 8,9°C berechnet hat, 1951-1980 bei 8,1°C lag und 1921-1950 ebenfalls bei 8,1°C war. Man kann natürlich auch kürzere Zeitabschnitte mitteln, aber damit fängt man sich auch mehr zeitlich-lokale Effekte und mehr Meßrauschen ein.
Was die Signifikanzaussagen von Klimavorhersagen angeht, so ist das mathematisch gesehen schwerere Kost, die ich selbst kaum durchschaue, bzw. selbst nicht die Zeit dazu hatte, sie mir anzulesen. In wenigen Worten ausgedrückt, versucht man u.a. über Ensembleanalysen von verschiedenen Vorhersagemodelle die Signifikanz zu schätzen.
Hallo Herr Hader,
Die Motivation ist ganz einfach. Im Buch „der Klimawandel“ von S.Rahmstorf und H.J. Schellnhuber (Ausgabe 2012) steht auf Seite 38 unten: „Bis 1940 gab es eine Erwärmungsphase, danach stagnierten die Temperaturen bis in die 1970er Jahre, und seither gibt es einen neuen, bislang ungebrochenen Erwärmungstrend.“ Im Gegensatz dazu steht sinngemäß im obigen Artikel, dass es 1940 bis 1980 keine Erwärmung gab, dann gab es eine 16jährige Erwärmungsphase, seither stagniert das Temperaturniveau. Wer hat recht? Wie kommt es zu diese Kontroverse? Die Antwort: Die Potzdamer Forscher haben offensichtlich den Temperaturverlauf mit Hilfe eines Tiefpassfilters so ausgetrickst, dass die 16 jährige Erwärmungsphase großzügig auf 40 Jahre verschmiert wurde (vielleicht um einen Gleichklang mit dem CO2-Anstieg vorzutäuschen). Noch Viel krasser sind die Verhältnisse bei der Analyse der deutschen Daten (DWD). Dort zeigen die Temperaturen bis auf einen einzigen „Klimasprung“ von etwa einem Grad im September 1987 seit 1943 überhaupt keine Erwärmungstendenz. Prüfen Sie es nach! Sie haben selber zugegeben, dass bei einem plötzlichen dauerhaft wirkenden sprunghaften Anstieg der Tiefpassfilter völlig ungeeignet ist. Wenn Sie einen solchen Klimasprung für physikalisch ausgeschlossen halten, dann sollten Sie sich neuen Denkmustern öffnen. Die Menschen in Deutschland spüren seit 25 Jahren nichts von einer Erwärmung und sie haben recht, es gab auch keine. Alles nur statistischer Schwindel. EIKE sei Dank, dass dem IPCC auch ab und zu widersprochen wird. Alle IPCC-Kritiker als Idioten, Lobbyisten usw. abzustempeln ist einfach nur arrogant und schadet der Wissenschaft. Einigen wir uns einfach darauf, dass es in den letzten 16 Jahren im Durchschnitt auf der Erde etwa ein halbes Grad wärmer war als 1940 bis 1979. Genauere eindeutige Aussagen sind nicht möglich und dürfen kontrovers gesehen werden. Zu den ca. 3 Grad Erwärmung bei CO2-Verdopplung kann ich nichts sagen. Die 90-95% Wahrscheinlichkeit konnte ich aber bisher nicht nachvollziehen. Ich habe noch keine Wahrscheinlichkeitsberechnug dazu gefunden. Kennen Sie eine? Falls nicht, seien Sie doch auch mal skeptisch! Vielen Dank für die Diskussion. MfG
Lieber Herr Kuhnle,
mit der Tiefpassfilterung der GISS Daten macht man ueberhaupt keine Dateninterpretation. Man extropoliert auch nicht. Sie verwechslen die Datenanalyse und die Interpretation des Klimaverlaufes bis heute mit den Szenarien, die man auf dem erwarteten Klimaverlauf fuer die Zukunft anhand der Emissionsszenarie erwartet. Vermischen Sie das nicht!!
Es ist ja eigentlich erstaunlich; Herr Limburg hat in vielen Beiträgen ausdrücklich betont, wie ungenau eigentlich die gemessenen Temperaturen an den Meßstationen sind und wie wenig man den Genauigkeitsangaben bei den gemittelten Globaltemperaturen vertrauen könne. Viele Leser sehen das angeblich ähnlich. Okay, auf der anderen Seite versucht man in zig Beiträgen zu zeigen, in welche Richtung die Trendberechnung von Zeitintervallen gehen, die deutlich kleiner als 30 Jahre sind. Man will also mit Daten, die man selbst für ungenau hält, in kurzen Zeitabschnitten Trendanalysen durchführen und wundert sich, dass man so widersprüchliche Ergebnisse bekommt. Sorry, aber da passt irgendetwas nicht zusammen. Also wenn man schon den Temperaturmessung weniger Genauigkeit zutraut als man allgemein annimmt, dann wählt man doch für die Trendanalyse längere Zeitabschnitte und nicht kürzere aus, um signifikante Aussagen zu erhalten.
#64: „Ein bisschen Mühe geben wäre ganz gut.Sie müssen einfach nur Tabelle 1 anschauen und die Beiträge zu den Trends durch die einzelnen Forcings die
Lean und Rind ausrechnen vergleichen. Da werden Sie sehen, dass die Beiträge des anthrogenen Forcings nahe 100% sind.“
Hallo Herr Heß. In Fig.2 werden die Modellfehler graphisch dargestellt. Das vierte Diagramm zeigt das Modell „Antropogenic Forcing“. Dort ist die Abweichung von den gemessenen Daten deutlich zu sehen. Im übrigen bedeutet „Antropogenic Forcing“ besteht nicht allein aus dem CO2-Anteil: „The anthropogenic forcing is the net effect of eight different components, including greenhouse gases, landuse and snow albedo changes, and (admittedly uncertain) tropospheric aerosols [Hansen et al., 2007] (inset, Figure 2d).“
Die Tabelle 1 „lists the linear trends in the temperature anomalies attributable to each of the four individual influences over the entire
period, and compares the trends in three intervals (past 25, 50 and 100 years) with IPCC’s corresponding linear (net) global surface temperature trends.“ Also ich kann in Gegensatz von Ihnen daraus nicht herauslesen, dass „die Beiträge des anthrogenen Forcings nahe 100% sind“. Die Aussage deckt sich auch nicht mit dem, was man in „5. Summary“ liest. Dort heisst es u.a., dass die Kombination aus natürlichen und menschlichen Einflüssen rein empirisch betrachtet 76% der klimatischen Variabilität erklären.
Also Herr Heß, ich hab jetzt einige Zeit in das Verständnis dieses Paper gesteckt, eigentlich mehr, als ich an diesem Wochenende wollte. Ich komme immer noch nicht dahinter, wie Sie zu Ihrer Einschätzung kommen, will aber einen gravierenden Fehler meinerseits nicht ausschliessen. Sie sehen mich also ratlos bzgl. Ihrer Beiträge #61 und #64.
MfG
S.Hader