Extrem-Wetter-Hysterie … und kein Ende !? Oder neues aus der Anstalt!

Man muß genau hinschauen:

Es handelt sich (wieder mal) fast ausschließlich um Zukunfts-Projektionen,sgn. Modell-Szenarien, also noch nicht einmal um – "nur" unsichere – "Prognosen",   sondern um Modell-Spekulationen, die für Entscheidungen mit teueren Folgen für die Bevölkerung unbrauchbar sind !Die Realitäten sehen soundefined aus. oder undefinedso, oder undefinedso, oder undefinedso, oder undefinedso

Sogar IPCC und die Medien mußten im Dez. 2011 nach einem IPCC-Sonderbericht vor der Klima-Konferenz in Durban eingestehen, daß es weltweit keine signifikanten Trends zu mehr Extrem-Wetter undefinedgibt:

Dabei ist es so einfach: Alle IPCC-Berichte sind aus dem Internet frei herunterladbar (allerdings nur in englischer Sprache). Bereits im IPCC-Bericht des Jahres 2001 ist das umfangreiche Kapitel 2.7 "Has Climate Variability, or have Climate Extremes Changed"? dem Problem der Extremwetterzunahme gewidmet. Ergebnis: Nichts maßgebendes aufzufinden! Dann wieder in 2011 der IPCC-Bericht für Politiker mit exakt der gleichen Aussage (s. hierzu auch die EIKE-News vom 9.12.2011 mit dem Titel "Der aktuelle Extremwetterbericht – kommentiert von den Klimaforschern Judith Curry und Hans von Storch"). Das IPCC spricht stets nur von Zukunftsereignissen aus der Kristallkugel seiner "Klimamodelle". Die Verlässlichkeit dieser Kristallkugel ist dann wieder ein anderes Thema.

Aktuell wird die Münchner Rück zitiert (NZ 21.03.2012, S.8): 

"Die Daten in unserer Natur-Katastrophen-Datenbank zeigen ganz eindeutig:    Die Anzahl der wetterbedingten Naturkatastrophen in Deutschland hat sich seit 1970 mehr als    verdreifacht" und w.a.a.O.: "Ohne den Klimawandel sei dies "vermutlich" nicht zu erklären…".    

Interessant dabei, daß die NZ das Wort "vermutlich" in Anführungs-Strichelchen setzt. Aus gutem Grund, denn bei genauerem Hinsehen weist auch die Münchener Rück selbst immer wieder darauf hin – wie auch andere Rück-Versicherer  – daß die eigentlichen Ursachen steigender Schäden ganz woanders zu finden sind, nämlich in den sich verändernden "sozio-ökonomischen" Randbedingungen :

"… der Hauptgrund für die markant steigenden Schadensummen durch Naturkatastrophen (ist) in den sozio-ökonomischen Bedingungen (Wertekonzentration und Besiedlung exponierter Regionen, Bevölkerungszunahme, höhere Schadenanfälligkeit) zu suchen."(Quelle: Münchener Rückversicherung, T. Grimm, "Starke Zunahme der Schäden durch Hurrikane"; in: WETTERmagazin 04/2006, Extremwetter-Kongreß HH, S.31).

Dazu ausführliche Begründungen und Zitate  undefinedh i e r:

Ob MünchnerRück, SWISS-Re oder andere … bei genauem Hinsehen bleibt bei den steigenden Schädenfür die "Klima-Katastrophe" nicht viel übrig:

Übrigens  –  bezüglich einer angeblich "verdreifachten Anzahl der wetterbedingten Naturkatastrophen" argumentiert die MünchnerRück offensichtlich gegen ihre eigenen Statistiken, zumindest gegen diejenigen, die sie noch im Vorjahr selber publiziert hat:

 

Wie schreibt doch der bekannte Klima-Forscher Hans von Storch ganz richtig:

“Ein recht bekanntes Bild zeigt die Abb.3 (Anm.: in der Quelle), in der die zunehmenden Schadenskosten aufgrund extremer Wetterereignisse dargestellt werden. Der größte Anteil steht mit Stürmen in Verbindung. Beim ersten Betrachten könnte man versucht sein, die Abbildung als Beweis zu akzeptieren, daß es immer häufigere oder heftigere extreme Wetterlagen gäbe.  Aber dieses ist nicht der Fall … Ein unverändertes Sturmklima geht einher mit deutlich höheren Schäden als früher. Abb.3 ist also zuallererst eine Darstellung des zunehmenden Wohlstandes … derartige Diagramme stammen aus der Versicherungsindustrie, die natürlich keine Einwände gegen den Eindruck eines erhöhten Wetterrisikos haben kann, verbessert dies doch die Marksituation.“

(Quelle: Prof. Dr. Hans von Storch, Veränderliches Küstenklima, Mitt. OVR 61, 6 (2006), S.227-240, vgl. auch Abb.3, S. 239.

KE Puls EIKE

Dazu passend die jüngste Pressemitteilung aus dem Potsdam Institut für Klimaforschungsfolgen PIK:

Neues aus der Anstalt :

Pressemitteilung des Potsdam-Instituts für Klimafolgenforschung (PIK) 23.03.2012

SPERRFRIST bis einschließlich 25. März, 19.00 Uhr
Wetterrekorde als Folge des Klimawandels: Ein Spiel mit gezinkten Würfeln

Das vergangene Jahrzehnt war eines nie dagewesener Wetterextreme. Dass diese Häufung nicht einfach nur Zufall ist, belegen jetzt Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung (PIK). Aus den vielen einzelnen Ereignissen fügt sich ein Bild zusammen. Zumindest bei extremen Regenfällen und extremen Hitzewellen ist der Zusammenhang mit der vom Menschen verursachten globalen Erwärmung deutlich, so zeigen die Wissenschaftler in ihrer Analyse des Forschungsstands in der Fachzeitschrift Nature Climate Change. Weniger klar ist dagegen der Zusammenhang bei Stürmen, trotz der beobachteten Zunahme der Stärke von Hurricans.

Allein 2011 gab es in den USA 14 Wetterextreme, von denen jedes Kosten in Höhe von mehr als einer Milliarde Dollar verursachte – in mehreren Bundesstaaten waren die Monate Januar bis Oktober die nassesten, die dort jemals gemessen wurden. Aber auch in Japan gab es Rekord-Regenfälle, und im Becken des chinesischen Jangtse-Flusses Rekord-Trockenheit. Ähnlich in den Jahren zuvor. 2010 erlebte Westrussland den heißesten Sommer seit Jahrhunderten, und Pakistan und Australien Spitzenwerte bei den Niederschlägen. 2003 war in Europa der heißeste Sommer seit mindestens einem halben Jahrtausend. Und 2002 fiel auf die Wetterstation von Zinnwald-Georgenfeld im Erzgebirge an einem Tag mehr Regen als in Deutschland je zuvor gemessen wurde – hierauf folgte die Jahrhundertflut der Elbe.

„Die Frage ist, ob diese Wetterextreme Zufall oder eine Folge des Klimawandels sind“, sagt Dim Coumou, Haupt-Autor des Artikels. „Im Einzelfalls lässt sich die Erderwärmung als Ursache meist nicht dingfest machen – in der Summe aber wird der Zusammenhang mit dem Klimawandel deutlich.“ Dies hat seine Untersuchung von Daten und Studien ergeben.  „Das Ganze ist keine Frage von Ja oder Nein, sondern eine Frage von Wahrscheinlichkeiten“, erklärt Coumou. Die Häufung von Wetterrekorden, sagt er, ist nicht mehr normal.

„Es ist wie ein Spiel mit gezinkten Würfeln“, so Coumou. „Eine Sechs kann es auch so ab und zu mal geben, und man weiß nie, wann das passiert. Aber jetzt gibt es viel öfter die Sechs. Weil wir den Würfel verändert haben.“ Die vergangene Woche illustriert dies: In Nordamerika wurden allein zwischen dem 13. und 19. März an mehr als eintausend Orten historische Wärmerekorde übertroffen.

Dabei stützen die Forscher ihre Analyse auf gleich drei Pfeiler: elementare Physik, statistische Analyse und Computersimulationen. Bereits grundlegende physikalische Prinzipien legen nahe, dass die Erwärmung der Atmosphäre zu mehr Extremen führt. So kann warme Luft mehr Feuchtigkeit halten ( aufsteigende IR-Wärme entzieht der Luft die Feuchtigkeit sehen Sie Miskolczi-Diagramm = Verdoppelung des C02-Gehaltes ergibt eine Annahme der Feuchtigkeit um 3% (HHüne) ), bis diese plötzlich abregnet. Zweitens ließen sich statistisch in den Temperatur- und Niederschlagsdaten klare Trends finden, wie die Forscher erklären. Und drittens bestätigen auch detaillierte Computersimulationen den Zusammenhang zwischen Erwärmung und Rekorden bei Temperatur und Niederschlag.

Tropenstürme – je nach Region Taifune oder Hurricans genannt – sollten bei wärmeren Wassertemperaturen zwar stärker werden, aber nicht häufiger, so der Stand des Wissens. Im abgelaufenen Jahrzehnt sind mehrere Rekordstürme aufgetreten, beispielsweise Hurrican Wilma 2004. Allerdings sind die Zusammenhänge komplex und teils noch nicht entschlüsselt. Die beobachtete starke Zunahme der Intensität von Tropenstürmen im Nordatlantik 1980 bis 2005 etwa könnte neben der globalen Erwärmung auch eine Abkühlung der obersten Luftschichten als Ursache haben. Zudem sind die historischen Daten teilweise nicht genau genug.

Kälte-Extreme nehmen mit der globalen Erwärmung insgesamt ab, fanden die Forscher. Allerdings gleiche dies nicht die Zunahme der anderen Extreme aus. 

„Einzelne Wetterextreme haben oft mit regionalen Prozessen zu tun, wie einem blockierten Hochdruckgebiet oder natürlichen Phänomenen wie El Niño“, sagt Stefan Rahmstorf, Ko-Autor des Artikels und Leiter des Forschungsbereichs Erdsystemanalyse des PIK. „Das sind komplexe Prozesse, die weiter erforscht werden. Aber diese Prozesse entfalten sich jetzt vor dem Hintergrund einer globalen Klimaerwärmung. Und die kann dann aus einem Extremereignis ein nie zuvor beobachtetes Rekordereignis machen.“
Artikel: Coumou, D., Rahmstorf, S. (2012): A Decade of Weather Extremes. Nature Climate Change [DOI: 10.1038/NCLIMATE1452]

Weblink zum Artikel, wenn er veröffentlicht ist:http://dx.doi.org/10.1038/NCLIMATE1452  

Und noch etwas aus dem Tollhaus: 

Meteorologen erklären 2011 zum wärmsten La-Niña-Jahr

Auszug (kompletter Link hier):

Die Messungen zeigten, dass "der Klimawandel jetzt stattfindet und nicht eine Gefahr in irgendeiner fernen Zukunft ist", sagte WMO-Generalsekretär Michel Jarraud. "Die Welt erwärmt sich aufgrund menschlicher Aktivitäten und das hat weitreichende und potentiell nicht rückgängig zu machende Auswirkungen auf unsere Erde, die Atmosphäre und die Ozeane", sagte er.




Der Graben zwischen Monckton und einem Geowissenschaftler und Aktivisten am Union College

Die Meinung eines Lords kann mit der wissenschaftlichen Wahrheit nicht mithalten

Foto rechts: Erin Delman (links), Präsidentin des Environmental Club, diskutiert mit Monckton (Foto von Charlotte Lehman) plus: der Vorsitzende des Fachbereichs und Professor der Geologie  Donald Rodbell (rechts) befragt Lord Christopher Monckton auf der Veranstaltung über die „andere Seite“ der globalen Erwärmung (Foto von Rachel Steiner, Concordiensis)

Von Donald Rodbell und Erin Delman in Opinions | March 7, 2012

Als Geowissenschaftler sind wir zerrissen. Die Republikaner am College sowie das Committee for a Constructive Tomorrow (CFACT) empfingen Lord Monckton, einen weltweit anerkannten Klimaskeptiker am 5. März, und wir waren ziemlich unsicher, wie wir darauf reagieren sollten. Im Klartext, unsere Gefühle schwankten zwischen äußerster Empörung und reinem Zorn [between utter disgust and sheer anger]. Einerseits erschien es aberwitzig, Lord Monckton nur eine Sekunde zu geben oder nur einen einzigen Gedanken an ihn zu verschwenden. Andererseits jedoch bestand das Risiko, dass eine Ablehnung seines Auftritts Eindruck machen würde, noch dazu einen gefährlichen.

Und daher haben sich die Umweltaktivisten des Colleges – einschließlich Mitglieder des Umweltclubs, die Leiter und Mitglieder von U-Sustain, besorgte Bürger und renommierte Wissenschaftler mit PhD aus prestigeträchtigen Institutionen – entschlossen, gegen die Anwesenheit Lord Moncktons auf unserem Campus zu opponieren.

Lord Monckton steht mit seinen Gedanken in dieser Sache nicht allein: allerdings sind überwältigende 97% der Wissenschaftler gegen seine Ansichten. Er besteht weiterhin darauf, dass diese Debatte einem rigorosen wissenschaftlich basierten Schema folgen muss, und dass der Konsens der Experten als solcher eine ungenügende Basis ist, auf der man über die Wahrhaftigkeit der Beweise für eine signifikante, vom Menschen beeinflusste Erwärmung befinden könne.

Eine ernsthafte wissenschaftliche Debatte kann weder in der Blogosphäre noch in hochbezahlten und politisch motivierten Präsentationen geführt werden, weder von Lord Monckton noch von Al Gore. Tatsache ist, dass die Wissenschaft gesprochen hat, und die überwältigende Masse der Beweise hat sehr, sehr klar gezeigt, dass die globale Erwärmung im Gange ist und zumindest zum größten Teil vom Menschen verursacht ist. Während ein wissenschaftlicher Konsens falsch sein kann, ist er es meistens nicht.

(Ende der Auszüge)

===============================================================

Seufz, da ist sie wieder, diese lächerliche Zahl von 97%. Man würde denken, dass diese „gebildeten“ Leute sich die Mühe machen würden, solche Dinge zu hinterfragen, bevor sie sie geistlos wieder hervor würgen und sich zu Schmeichlern degradieren. Und dann dies: „Eine ernsthafte wissenschaftliche Debatte kann nicht in der Blogosphäre geführt werden…“. Nun, dann sagen Sie BITTE RealClimate, damit aufzuhören, genau das zu tun, und zwar auf Kosten der Steuerzahler.

Es scheint, dass Erin Delman alles tut, um zu einer  professionellen, umwelt-legalen Unruhestifterin zu werden…

Sie ist daran interessiert, einen kombinierten PhD und einen juristischen Grad in Geologie und der Umweltgesetzgebung zu erlangen. Und sie überdenkt eine Karriere in Umweltpolitik, besonders wenn es um Wasserrechte geht.

…also denke ich, dass man über diesen Artikel nicht überrascht sein sollte. Mit diesem kalifornischen Hintergrund und den verletzten Wasserrechten sage ich voraus, dass sie bald am Pacific Institute die Mission eines Gleick ergänzen wird.

Der ganze Artikel steht hier: A lord’s opinion can’t compete with scientific truth

===============================================================

Monckton antwortet in Kommentaren auf diesen Artikel:

Monckton of Brenchley | Permalink

Oh, reden Sie doch keinen Unsinn, Professor!

Von Christopher Monckton of Brenchley

Professor Donald Rodbells persönlicher Angriff auf mich in Concordiensis verdient eine Antwort. Der Professor scheint nicht sehr erpicht auf die Redefreiheit zu sein: Nachdem er davon erfahren hatte, dass ich vor Studenten am Union College einen Vortrag halten würde, sagte er, dass seine „Gefühle schwankten zwischen äußerster Empörung und reinem Zorn“. Mann, oh Mann!

Der Professor sollte sich an das erste Gebot der Verfassung der Vereinigten Staaten erinnern: „Der Kongress sollte kein Gesetz verabschieden…, welches die Redefreiheit einschränkt“. Ich habe von der Redefreiheit am Union College Gebrauch gemacht. Der Professor mag anderer Ansicht sein (obwohl sein Artikel beklagenswert verschwommen daher kommt, mit welchen Punkten meines Vortrages – wenn überhaupt – er nicht übereinstimmt); aber laut Verfassung darf er nicht mein Recht in Abrede stellen oder einschränken, es zu sagen.

Er und seine ihm folgenden Klimaextremisten hätten daher nicht davon sprechen sollen, „gegen die Präsenz Lord Moncktons zu opponieren“, weil das meine Redefreiheit einschränken würde. Es wäre fair von dem Professor gewesen, darüber zu reden, gegen meine Argumente zu opponieren – und komischerweise ist es genau das, was in dem Artikel bei Concordiensis vollständig fehlt.

Der Professor sagt, es ist sicher, dass „sich die Welt erwärmt, dass sich die Klimaverhältnisse ändern und dass die Menschen eine treibende Kraft dabei sind“. Diese drei Feststellungen wollen wir einmal näher beleuchten.

– Die Welt erwärmt sich gegenwärtig nicht. Sie hat sich seit fast eineinhalb Jahrzehnten nicht erwärmt, obgleich es jetzt wärmer ist als im Jahre 1695. Während der 40 Jahre bis 1735, sogar bevor die industrielle  Revolution begonnen hatte, ist die Temperatur in Zentralengland (keine schlechte Proxy für die globale Temperatur) um 4°F (ca. 2°C) gestiegen, verglichen mit dem 1°F (ca. 0,5°C) im gesamten 20. Jahrhundert.

– Die Klimaverhältnisse ändern sich tatsächlich. Aber sie haben sich seit 4567 Millionen Jahren verändert, und das werden sie auch bis in ferne Zukunft noch tun. Allerdings sagt uns die Tatsache der Klimaveränderungen nichts über deren Ursache.

– Die Menschen üben tatsächlich einigen Einfluss aus. Tatsächlich habe ich im Gegensatz zu anders lautenden Behauptungen des Professors explizit in meinem Vortrag darauf hingewiesen, dass das IPCC recht haben könnte, wenn es sagt, dass mehr als die Hälfte der Erwärmung seit 1950 durch uns verursacht worden ist. Allerdings sagt uns das wenig darüber, eine wie starke Erwärmung wir in Zukunft erwarten können. Meine beste Schätzung lautet, dass das CO2, das wir der Atmosphäre zuführen, bis zum Jahr 2100 zu einer Erwärmung um 1°C führen wird. Aber das liegt nicht weit entfernt von der zentralen Schätzung des IPCC von 1,5°C.

Als nächstes behauptet der Professor ohne jeden Beweis, dass „97% der Wissenschaftler überwältigend gegen (Moncktons) Ansichten sind“. Abgesehen von der Doppelaussage (das Wort „überwältigend“ hätte nicht kommen dürfen), gab es meines Wissens keine Übersicht darüber, wie viele Wissenschaftler oder wie viel der öffentlichen Meinung gegen meinen Standpunkt sind. Ich weiß von zwei Umfragen, in denen 97% der Wissenschaftler erklären, dass sich die Welt während der letzten 60 Jahre erwärmt habe, aber in dieser Hinsicht stimmen sie mit meinem Standpunkt überein. Es gab aber keine Umfrage, die ergeben hat, dass 97% der Wissenschaftler mit der viel extremeren Version des IPCC übereinstimmen, dass ungebremste CO2-Emissionen sehr wahrscheinlich zu einer gefährlichen globalen Erwärmung führen. Und selbst wenn es eine solche Erhebung gegeben hätte –  die Ansicht, dass Wissenschaft durch eine derartige Erhebung stattfindet, ist die logische Täuschung des argumentum ad populum [Wikipedia: Argumentum ad populum (lateinisch argumentum ad populum ‚Beweisrede für das Volk‘) bezeichnet eine rhetorische Taktik, bei der etwas als wahr behauptet wird, weil es der Meinung einer relevanten Mehrheit von Personen, z. B. der öffentlichen Meinung entspricht. A. d. Übers.] Diese Täuschung wurde zum ersten Mal von Aristoteles vor 2300 Jahren beschrieben, und es ist deprimierend zu sehen, dass ein Professor das heute immer noch ausführt.

Wissenschaft wird nicht betrieben, indem man die Anzahl der Wissenschaftler ermittelt. Sie wird betrieben durch Messungen, Beobachtungen und Experimente, sowie durch Anbringen etablierter Theorien an die Ergebnisse. Bis Einstein haben 100% aller Wissenschaftler geglaubt, dass Raum und Zeit unveränderlich seien. Sie lagen alle falsch. So viel zum Stichwort Konsens.

Als nächstes meinte der Professor, ich mache „zahlreiche Ungenauigkeiten und Falschbehauptungen“. Und doch spricht er nicht eine einzige in seinem Artikel an, der in Wirklichkeit zu einer bloßen Handbewegung mutiert. Dann behauptet er, ich habe „kein wie auch immer geartetes Interesse daran, einer echt wissenschaftlichen Vorgehensweise zu folgen“. Wer zugegen war, wird jedoch gemerkt haben, dass ich große Mengen von Daten und Analysen präsentiert habe, die zeigen, dass die grundlegenden Schlussfolgerungen aus jedem der vier IPCC-Klimabehauptungen fehlerhaft sind; dass die durch Verdoppelung des CO2-Gehaltes zu erwartende Erwärmung 1°C betragen wird; und dass – selbst falls man eine Erwärmung im 21. Jahrhundert um 3°C zugrunde legt – es 10 bis 100 mal billiger und kosteneffektiver ist, jetzt nichts zu tun und sich schwerpunktmäßig später anzupassen als zu versuchen, die Erwärmung durch Kontrolle des CO2 anzuhalten.

Der Professor fährt fort, dass „das Fundament aller Wissenschaft begutachtete Veröffentlichungen sind”. Nein: nur rigoroses Denken ist der Eckpfeiler der Wissenschaft. Das ist es ja, was in der Vorgehensweise des IPCC fehlt. Alle seine grundlegenden Schlussfolgerungen basieren auf Modellierungen. Und nicht eines dieser Modelle jedoch, auf die sich das IPCC verlässt, ist wissenschaftlich begutachtet. Auch ist irgendeines der IPCC-Dokumente nicht in akzeptierter Weise begutachtet. Es gibt Gutachter, aber den Autoren wird gestattet, sie zu überstimmen, und das ist in keiner Weise Begutachtung. Darum auch ist der grobe Fehler hinsichtlich des angenommenen Verschwindens der Himalaya-Gletscher bis 2035 nicht korrigiert worden. Schlimmer noch, fast ein Drittel aller im 4. Zustandsbericht 2007 aufgeführten Referenzen war ebenfalls nicht begutachtet worden. Sie wurden von  Umweltaktivisten, Journalisten und sogar Studenten geschrieben. Das ist nicht gut genug.

Als nächstes sagt der Professor, dass ich „fundamental unwissenschaftlich“ sei, weil ich meine eigene Analyse der „globalen Erwärmung“ nicht in einem begutachteten Journal veröffentlicht habe. Und doch hat er nie Al Gore in die Verantwortung genommen, der ebenfalls niemals irgendetwas in einem begutachteten Journal veröffentlicht hat. Warum dieses Messen mit zweierlei Maß? Das Wichtigste wäre mit Sicherheit die Zerschlagung des IPCC, dessen Vorgehen – mit dem eigenen Begutachtungstest des Professors – „fundamental unwissenschaftlich“ ist.

Der Professor fährt fort und sagt, dass es „unmöglich sei, (Moncktons) Methoden, seine Berechnungen und Schlussfolgerungen ohne eine vollständige und detaillierte begutachtete Veröffentlichung eingehend zu prüfen, in der die wichtigen Details erläutert werden“. Das Gegenteil ist richtig: Meine Bilder sind öffentlich verfügbar und zeigen präzise, wie ich zu meinen Schlussfolgerungen gekommen bin, mit zahlreichen Referenzen begutachteter Literatur und der (nicht begutachteten) Zustandsberichte des IPCC.

Als nächstes sagt der Professor, dass mir „ziemlich substantielle Fehler“ im Union College vorgehalten worden sind. Und doch war ich in der Lage, alle vorgebrachten Punkte zu beantworten: und der Professor sagt hier ebenso wie anderswo nicht im Einzelnen, welche „Fehler“ ich gemacht haben soll. Ich habe auf einige sehr ernste Fehler in den Dokumenten des IPCC hingewiesen: Warum schaut der Professor in die andere Richtung, wenn er mit diesen „offiziellen“ Fehlern konfrontiert wird? Auch hier scheinen verschiedene Maßstäbe angelegt zu werden.

Der Professor endet mit den Worten, dass „die Wissenschaft gesprochen habe“ und dass „ein wissenschaftlicher Konsens zwar falsch sein kann, dies aber meistens nicht ist“. Nun, der Konsens der Eugenik in den zwanziger Jahren, demzufolge Menschen wie Rennpferde gezüchtet werden müssen, um das Erbe zu verbessern, war fast universal unter den Wissenschaftlern, aber er war falsch und führte direkt zu den Todeszügen nach Oswiecim und Treblinka. Der Lysenko-Konsens der vierziger und fünfziger Jahre, demzufolge das Austreiben von Saatgut durch das Tränken mit Wasser während des Winters verbessert werden könne, zerstörte 20 erfolgreiche Ernten in der Sowjetunion und tötete 20 Millionen des Proletariats. Der Konsens zur Verbannung von DDT in den sechziger Jahren hat zu 40 Millionen Malariatoten, vor allem Kindern geführt (die Zahl steigt immer noch), davon allein im vergangenen Jahr 1,25 Millionen. Der Konsens zu AIDS [the don’t-stop-AIDS consensus] der achtziger Jahre tötete 33 Millionen, mit weiteren 33 Millionen, die sich angesteckt haben und auf den Tod warten.

Der Klima-„Konsens” tötet ebenfalls Millionen, und zwar durch die Umverteilung von Milliarden Dollar, ursprünglich gedacht für die Armen, zur Bereicherung von Regierungen, Bürokraten, Bankiers, Landbesitzern, Windparkbetrügern und umweltlicher Geschäftemacher – und um der Dritten Welt den Zugang zu Energie aus fossilen Treibstoffen zu verwehren, die sie so dringend braucht. Es ist Zeit, das Töten zu beenden. Wenn ich für eine vernünftigere und wissenschaftlich basierte Politik eintrete, um das Abschlachten unserer Mitbürger auf diesem Planeten zu beenden, werde ich das weiterhin tun, ob der Professor das nun mag oder nicht.

Er sollte sich durch und durch über sich selbst schämen!

Link: http://wattsupwiththat.com/2012/03/17/monckton-in-a-rift-with-union-college-earth-scientists-and-activists/

Übersetzt von Chris Frey EIKE

*Im Original steht wirklich das deutsche Wort „angst“. A. d. Übers.




Energiewende wirkt: EU will Wohnhäuser zwangssanieren lassen

Update 29.3.12: Mail des EU-Parlamentariers Herbert Reul (s.U.).

Es handelt sich ja nur um einen wohlwollend in Kauf genommener Kollateralschaden der Ideologie von der menschgemachten Klimakatastrophe, die vorgibt nur das Beste für die zukünftigen Generationen zu wollen. Die katastrophalen Schäden dieser Politik wird mit jedem Tag klarer. Die Welt schreibt dazu:

Die EU will mit einer Richtlinie den Energieverbrauch von Wohnhäusern stark senken. Den Besitzern drohen Kosten von mehr als 100.000 Euro.

Das EU-Parlament wolle die energetische Sanierung von Wohngebäuden massiv vorantreiben, sagt Ingrid Vogler vom GDW Bundesverband deutscher Wohnungs- und Immobilienunternehmen. Deshalb seien sehr scharfe Vorgaben in den Richtlinienentwurf aufgenommen worden…

Nach dem Entwurf der EU-Richtlinie müssten Immobilien, die bis Ende 2010 nach der EnEV 2009 errichtet wurden, nun so aufwendig saniert werden, dass der Verbrauch auf nur noch 1,4 Liter Heizöl pro Quadratmeter und Jahr sinkt.

Sollte dieser Wert Standard werden, kämen auf Besitzer älterer Häuser noch weit höhere Kosten zu. Das zeigen Berechnungen der Bundesvereinigung Spitzenverbände der Immobilienwirtschaft (BSI). Danach sind Investitionen von mehr als 110.000 Euro nötig, um den Energieverbrauch für Heizung und Warmwasser in einem in den 50er-Jahren errichteten Einfamilienhaus auf einen derart niedrigen Verbrauch zu bringen….

…Selbst wenn die Heizkosten durch die Sanierung um 2500 Euro pro Jahr gesenkt werden, würde es bei einem Kostenvolumen von 110.000 Euro mindestens 44 Jahre dauern, bis die Investition durch die Einsparungen beim Öl- oder Gasverbrauch wettgemacht sind…

…Tatsächlich dürften sogar mehr als 60 Jahre verstreichen, bis sich die Aufwendungen rentieren, weil die meisten Besitzer die Sanierung nicht ohne einen Kredit stemmen können und deshalb zusätzlich noch Zinsen abtragen müssen.

Mail des EU-Parlamentariers Herbert Reul:

Sehr geehrter Herr Limburg,
 
mit Interesse verfolge ich die Aktivitäten des EIKE. Ich finde es wichtig, dass die oft sehr einseitige Klimadebatte auch von einer anderen Seite betrachtet wird.
 
Zu der unten aufgegriffenen Meldung der WELT vom 22.03.2012, dass die EU Wohnhäuser zwangsanieren möchte, folgendes:
 
Es ist richtig, dass das Europäische Parlament über die Energieffizienzrichtlinie abgestimmt hat, aber falsch, dass in dem Text die Zwangssanierung gefordert wird. Dies war eine Forderung des grünen Berichterstatters Claude Turmes, ist aber durch den Einsatz der Fraktion der Europäischen Volkspartei (EVP, aus Deutschland CDU und CSU) entschärft worden. Der beschlossene Text des Parlaments erhält nur noch die Empfehlung, Wohnhäuser zu sanieren, aber keine Verpflichtung mehr. Endgültig ist jedoch noch nichts, denn der Rat, also die EU-Mitgliedstaaten, muss sich noch mit dem EP auf einen endgültigen Text einigen. Ich habe die Hoffnung, dass die Regierungen etwas  realitätsnähere Positionen vertreten, als manch einer meiner Abgeordnetenkollegen aus dem grünen Spektrum.
 
Mit freundlichen Grüßen
 
Herbert Reul MdEP
 
 




Das Ende des Ökologismus: Die Autopsie

Power Line: Anknüpfend an den Beitrag von gestern über das langsame, qualvolle Sterben der Öko-Bewegung: hätte das jemand voraussagen können? Tatsächlich hat das jemand getan, und zwar zu Beginn des modernen Ökologismus, so um den ersten Earth Day herum. Der Politikwissenschaftler Anthony Downs stellte seine Theorie des “issue-attention cycle” (Zyklus der medialen Aufmerksamkeit) in einem zum Klassiker gewordenen Artikel 1972 in der Quartalszeitschrift The Public Interest vor, in dem er die fünf Stufen darstellt, die praktisch alle Themen in ihrem medialen Leben durchlaufen. Ausdrücklich sagte Downs voraus, dass der Umweltthemen-Zyklus länger als gewöhnlich dauern würde.

Der Zyklus der medialen Aufmerksamkeit wird eingeleitet durch Experten und Interessengruppen, die ein Problem oder eine Krise thematisieren, worauf dieses Thema bald danach alarmiert von Nachrichtenmedien und breiteren politischen Kreisen aufgegriffen wird. Diese zweite Stufe ist typischerweise geprägt durch euphorischen Enthusiasmus — man könnte sie die „Dopamin-Stufe“ nennen — in der Aktivisten das Thema unter den Gesichtspunkten globaler Rettung und Erlösung wahrnehmen. Einer der größten Schwachpunkte des Ökologismus von Anfang an war dieses Wahrnehmen: nicht als ein praktisches Problem öffentlicher Gesundheit oder öffentlichen Ärgernisses, sondern – aus Al Gores Sicht – als ein Ausdruck tiefer spiritueller und sogar metaphysischer Probleme, die sich aus unserer „disfunktionalen Zivilisation“ ergeben. Diese Leute wollen nicht unseren Auspuff reinigen; sie wollen unsere Seelen reinigen.

Die dritte Stufe ist der Dreh- und Angelpunkt. Wie Downs erläutert, setzt sich “schrittweise die Erkenntnis durch, dass die Kosten zur ‘Lösung’ des Problems exorbitant hoch sein werden.“ Auf dieser Stufe befinden wir uns seit dem in Kyoto vorgeschlagenen, vollkommen unrealistischen Kurzfrist-Einsparungen bei fossilen Energieträgern als einzigem Heilmittel gegen den Klimawandel — einer fanatischen Monomanie, welcher die Kampagne für den Klimaschutz unerschütterlich nachhängt und die die Öko-Bewegung aufgezehrt und ihren Tod beschleunigt hat. Rückblickend lässt sich heute die Ironie erkennen, die darin liegt, dass die offene Weigerung von Präsident George W. Bush, die Kyoto-Regelungen anzunehmen, der Klima-Kampagne mit der Allzweck-Ausrede des mangelnden „Fortschritts“ zum Weiterleben verhalf. Jetzt, wo Bush weg ist, lassen sich die immanenten Schwächen der Farce zur CO2-Reduzierung nicht mehr verstecken.

„Die vorhergehende Stufe“, führt Downs aus, „gleitet kaum wahrnehmbar in eine vierte Stufe über: ein schrittweises Abnehmen der Intensität des Interesses der Öffentlichkeit an diesem Problem. In der letzten [Nach-Problem-] Stufe“, fährt Downs fort, „geht ein Thema, das aus dem Zentrum des öffentlichen Interesses gerückt ist, in den Zustand eines verlängerten Übergangsstadiums über — einem Gebiet des Zwielichts aus weniger Beachtung und sprunghaftem Wiederaufflammen des Interesses.“

Das Todesröcheln des Ökologismus wird ohrenbetäubend sein. Es ist zuviel politische Eigendynamik und fanatische Hingebung im Spiel, als dass dies still und leise vonstatten gehen könnte. Das Öko-Establishment ist ein Milliardengeschäft und es gibt eine Menge einfältig-schuldbewußter reicher Leute, idiotischer Hollywood-Berühmtheiten und Direktwerbungsopfer, so dass die Agitationsmaschinerie noch für viele Jahre weiterlaufen kann. Die Architektur der Umweltgesetze und –regulierungen, die administrative Eigendynamik der Umweltministerien, all das stellt sicher, dass diese Zombie-Bewegung der Wirtschaft weiterhin und über für viele Jahre hinweg großen Schaden zufügen kann. Aber machen wir uns nichts vor — es ist nur ein Haufen hirntoter Zombies, die uns heute mit der Öko-Bewegung gegenüberstehen.

Benny Peiser

dankend übernommen von ACHGUT

Als Todesursache in der amtlichen Sterbeurkunde lässt sich vermerken: „Selbstmord, verschuldet durch Hybris“.

Übersetzung aus dem Englischen H.B.




Aktualisierung von Scafettas Vorhersage

Das vorgeschlagene astronomisch basierte empirische Modell präsentiert eine alternative Methode, um Klimaänderungen zu rekonstruieren und vorherzusagen (derzeit im globalen Maßstab); und zwar alternativ zu der analytischen Methode, die in den allgemeinen Zirkulationsmodellen des IPCC enthalten ist. In meiner Studie habe ich bewiesen, dass alle Modelle des IPCC dabei versagt haben, alle dekadischen und multidekadischen Zyklen zu rekonstruieren, die in den Temperaturaufzeichnungen seit 1850 beobachtet worden waren. Für Details siehe meine unten gelisteten Veröffentlichungen.

Wie die Abbildung (rechts) zeigt, betrug die Temperatur im Januar 2012 0,218°C, was verglichen mit der Temperatur von Dezember 2011 eine Abkühlung darstellt. Außerdem liegt der Wert um 0,5°C unter dem Wert der mittleren IPCC-Projektion (der dünnen Kurve in der Mitte der grünen Zone). Man beachte, dass dies eine sehr signifikante Diskrepanz zwischen den Daten und der IPCC-Projektion ist.

Im Gegensatz dazu sind die Daten weiterhin in guter Übereinstimmung mit meinem empirischen Modell, was, wie ich erinnern möchte, als eine vollständige Vorhersage seit Januar 2000 konstruiert worden ist.

Tatsächlich werden die Amplituden und Phasen der vier Zyklen wesentlich auf der Basis von Daten von 1850 bis 2000 bestimmt, und die Phasen befinden sich in angemessener Übereinstimmung mit astronomischen Orbitaldaten und Zyklen, während die korrigierte Projektion der anthropogenen Erwärmung abgeschätzt wird durch den Vergleich des harmonischen Modells mit den Temperaturdaten und den IPCC-Modellen von 1970 bis 2000. Letzteres impliziert, dass die allgemeinen Zirkulationsmodelle des IPCC die Komponente der anthropogenen Erwärmung um den Faktor 2,6 überschätzt haben, mit einer Bandbreite von 2 bis 4. Siehe die Originalstudien und den Blogbeitrag (unten).

Das Widget zog auch manche Kritik einiger Leser von WUWT sowie von skepticalscience auf sich.  

Anthony Watts fragte mich, ob ich auf diese Kritiken antworten wolle, und das mache ich sehr gern. Ich möchte auf fünf Punkte eingehen.

1. Kritik von Leif Svalgaard

Wie viele Leser dieses Blogs bemerkt haben, hat Leif Svalgaard immer wieder meine Forschungen und Studien kritisiert. Seiner Meinung nach ist nichts von dem, was ich mache, auch nur eine Überlegung wert.

Über mein Widget behauptete Svalgaard wiederholt, dass die Daten schon jetzt klar meinem Modell widersprechen, siehe hier: 1, 2, 3 usw.

In jedem Falle, wie ich schon oft gesagt habe, scheint Leifs Kritik darauf zu beruhen, dass er die Zeiträume und die vielen Verteilungen in den Daten durcheinander bringt. Die Daten zeigen einen harmonischen dekadischen Trend plus schnellere Fluktuationen wegen der El Nino/La Nina-Oszillationen, die einen Zeitmaßstab von einigen Jahren haben. Die durch die ENSO ausgelösten Oszillationen sind ziemlich ausgeprägt und tauchen in den Daten mit Perioden starker Erwärmung auf, gefolgt von Perioden mit starker Abkühlung. Zum Beispiel liegt die Temperatur im Januar 2012 in der Abbildung oben außerhalb meiner türkisfarbenen Zone. Dies bedeutet nicht, dass mein Modell falsch ist, wie es Leif fehlinterpretiert. Tatsächlich ist dies eine Folge des gegenwärtigen kühlenden La Nina-Ereignisses. In einigen Monaten wird die Temperatur wieder steigen, wenn die El Nino-Warmphase wieder einsetzt.

Mein Modell ist nicht dazu gedacht, dass es die schnellen ENSO-Oszillationen abbildet, sondern nur die geglätteten dekadischen Komponenten durch ein vierjähriges gleitendes Mittel, wie ich in meiner Originalstudie gezeigt habe: dort erkennt man die volle Rekonstruktion seit 1850, welche meine Modelle (blaue und schwarze Linien) das 4-Jahres-Mittel gut rekonstruieren (graue Linie). Die Abbildung zeigt auch eindeutig die schnellen und großen ENSO-Temperaturoszillationen (rot), die in meinem Modell abzubilden nicht vorgesehen ist.

Wie das Widget zeigt, sagt mein Modell für die nahe Zukunft einen leichten Erwärmungstrend von 2011 bis 2016 voraus. Diese Modulation ist zurückzuführen auf den 9,1-jährigen (lunaren/solaren) und den 10 bis 11-jährigen (solaren/planetarischen) Zyklus, die beide gerade in ihre Warmphase getreten sind. Diese dekadische Verteilung sollte von den schnellen ENSO-Oszillationen überlagert werden, von denen erwartet wird, dass sie schnelle Perioden der Erwärmung und der Abkühlung während dieser fünf Jahre bringen, wie es von 2000 bis 2012 der Fall war. Folglich kann die Temperatur während der kühlenden La Nina-Phase (gegenwärtig im Gange) tatsächlich zurückgehen, aber das ist kein „Beweis“ dafür, dass mein Modell „falsch“ ist, wie Leif behauptet.

Zusätzlich zu den zahlreichen Tatsachenverdrehungen hat Leif natürlich auch in seinen Kommentaren niemals die gewaltige Diskrepanz zwischen den Daten und den IPCC-Projektionen angesprochen, um die es in diesem Widget geht. In meiner veröffentlichten Studie (1) habe ich in Abbildung 6 mit dem geeigneten statistischen Test mein Modell mit der Projektion des IPCC hinsichtlich der Temperatur verglichen. Diese Abbildung 6 folgt hier:

Die Abbildung zeigt eine Art statistischen Chi-Anpassungstest [?] zwischen den Modellen und der 4-jährigen geglätteten Temperaturkomponente mit der Zeit. Werte nahe 0 deuten darauf hin, dass das Modell sehr gut zu den Temperaturdaten passt, die sich innerhalb ihrer Fehlergrenze bewegt; Werte über 1 zeigen eine statistisch signifikante Abweichung vom Trend der Temperatur. Aus der Abbildung geht eindeutig hervor, dass mein Modell (blaue Kurve) sehr gut mit dieser Temperaturkomponente übereinstimmt, während die IPCC-Projektion immer schlechter wird und statistisch seit 2006 von der tatsächlichen Temperatur abweicht.

Ich erwarte nicht, dass Leif sein Verhalten mir und meiner Forschung gegenüber demnächst ändert. Ich möchte den Lesern dieses Blogs lediglich raten, vor allem jenen mit nur geringen wissenschaftlichen Kenntnissen, seine unfairen und unprofessionellen Kommentare mit gesundem Skeptizismus aufzunehmen.

2. Kritik am Abgleich der Basislinie zwischen den Daten und der IPCC-Projektion

Ein Leser dana1981 behauptet: „Ich glaube, dass Scafettas Plot zusätzlich verfälscht ist, weil er eine nicht korrekte Basislinie für HadCRUT3 benutzt. Das IPCC verwendet eine Basislinie von 1980 bis 1999, also sollte HadCRUT das auch tun!“

Dieser Leser bezog sich auch auf eine Abbildung bei skepticalscience, die hier der Bequemlichkeit halber folgt

Sie zeigt eine etwas niedrigere Basislinie für die Modellprojektion des IPCC relativ zur Temperaturaufzeichnung, was den Eindruck einer besseren Übereinstimmung zwischen den Daten und dem IPCC-Modell vermittelt.

Die Position der Basislinie ist irrelevant, weil die IPCC-Modelle eine stetige Erwärmung mit einer Rate von 2,3°C pro Jahrhundert von 2000 bis 2020 angenommen haben, siehe die IPCC-Abbildung SPM.5. Siehe hier, mit meinen hinzu gefügten Zeilen und Kommentaren:

Im Gegenteil, der Temperaturtrend seit dem Jahr 2000 verlief fast flach, wie die Abbildung im Widget zeigt. Offensichtlich verändert eine Änderung der Basislinie nicht die Neigung des dekadischen Trends! Wenn man also die Basislinie der IPCC-Projektion nach unten verlegt, um die Illusion einer besseren Übereinstimmung mit den Daten zu vermitteln, ist das nichts als ein Trick.

In jedem Falle ist die in meinem Widget verwendete Basislinie die Richtige, während die Basislinie in der Abbildung bei skepticalscience falsch ist. Tatsächlich sind die IPCC-Modelle sorgfältig kalibriert worden, um den Trend von 1900 bis 2000 zu rekonstruieren. Folglich ist die korrekte Basislinie diejenige von 1900 bis 2000, und genau diese habe ich verwendet.

Um den Lesern dieses Blogs dabei zu helfen, selbst zu einem Urteil zu kommen, habe ich Anthony Watts die originalen HadCRUT3-Daten sowie diese IPCC-Rekonstruktion übermittelt. Sie sind in den folgenden beiden Dateien enthalten:

HadCRUT3-month-global-data

itas_cmip3_ave_mean_sresa1b_0-360E_-90-90N_na-data

Wie jedermann aus den beiden Datensätzen berechnen kann, beträgt das Temperaturmittel von 1900 bis 2000 -0,1402, während nach dem IPCC-Modell ein Wert bei -0,1341 zu erwarten ist.

Dies bedeutet, dass man, um die beiden Aufzeichnungen zu plotten, die folgende Programmzeile in das gnuplot-Programm einfügen muss:

plot “HadCRUT3-month-global.dat”, “itas_cmip3_ave_mean_sresa1b_0-360E_-90-90N_na.dat” using 1:($2 – 0.0061)

was von 1850 bis 2040 den folgenden Graphen ergibt:

Der Zeitraum seit dem Jahr 2000 zeigt exakt das, was auch mein Widget ergeben hat.

Die Abbildung oben beleuchtet auch die starken Abweichungen zwischen dem IPCC-Modell und der Temperatur, die ich explizit in meinen Studien untersucht habe, und in denen ich beweise, dass das IPCC-Modell nicht in der Lage ist, irgendeinen der in verschiedenen Zeiträumen beobachteten natürlichen Oszillationen zu rekonstruieren. Man schaue zum Beispiel auf den 60-jährigen Zyklus, den ich in meinen Studien ausführlich betrachte: von 1910 bis 1940 zeigen die Daten einen starken Erwärmungstrend, aber der Erwärmungstrend in den Modellen ist viel geringer; von 1940 bis 1970 zeigt sich in den Daten eine Abkühlung, während beim IPCC immer noch eine Erwärmung erkennbar ist; von 1970 bis 2000 zeigen beide Aufzeichnungen einen ähnlichen Trend (diese Periode ist diejenige, die ursprünglich verwendet worden ist, um die Sensitivitäten der Modelle zu kalibrieren); die starke Abweichung von 1940 bis 1970 sowie nach 2000, wobei das IPCC-Modell eine stetige Erwärmung um 2,3°C pro Jahrhundert annimmt, während die Temperatur einen stetigen schwingungsmodulierten Trend zeigt, den ich in meinem Widget und meinem Modell beleuchtet habe.

Wie ich in meiner Studie ausgeführt habe, hat das Scheitern des Modells hinsichtlich der Rekonstruktion des 60-Jahre-Zyklus’ große Konsequenzen bei der angemessenen Interpretation des anthropogenen Erwärmungseffektes beim Klima. Tatsächlich nehmen die IPCC-Modelle an, dass die Erwärmung zwischen 1970 und 200 zu 100% aus einem anthropogenen Antrieb resultiert (vergleiche die Abbildungen 9.5a und 9.5b im IPCC-Bericht), während der 60-jährige natürliche Zyklus (plus die anderen Zyklen) mindestens 2/3 zur Erwärmung von 1970 bis 2000 beigetragen haben, wie ich in meinen Studien nachgewiesen habe.

Schlussfolgernd lässt sich feststellen, dass die Basislinie in meinem Widget die Richtige ist (Basislinie 1900 bis 2000). Meine Kritiker bei skepticalscience versuchen einfach, das Scheitern der IPCC-Modelle bei der 60-jährigen Temperaturmodulation zu verstecken, indem lediglich die IPCC-Simulation seit 2000 geplottet wird, sowie durch das Absenken der Basislinie auf den Zeitraum 1960 bis 1990, welches nicht der ist, der es sein sollte, weil das Modell die Periode von 1900 bis 2000 hypothetisch rekonstruieren soll.

Es ist offensichtlich, dass ein Absenken der Basislinie eine größere Abweichung zu den Temperaturdaten vor 1960 erzeugt! Also hat sich skepticalscience eines kindischen Tricks bedient, um eine zu kleine Bettdecke von einem zu großen Bett zu ziehen. Wie auch immer, wenn wir die Basislinie 1961 bis 1990 benutzen, sollte deren Position im Originalmodell des IPCC um 0,0282 nach unten gezogen werden. Dann liegt sie um 0,0221°C unter der in der obigen Abbildung gezeigten Position, was nicht wirklich umwerfend ist.

In jedem Falle ist die Position der Basislinie nicht der Punkt; sondern das ist der dekadische Trend. Aber meine Basislinie 1900 bis 2000 liegt in der optimalen Position.

3. Kritik an den gewählten Rändern oben und unten im IPCC-Modell der mittleren Projektion (meine Bandbreite der grünen Zone im Widget)

Weitere Kritik, vor allem bei skepticalscience betrachtet die Bandbreite der Grenzen (grüne Zone im Widget), die ich verwendet habe. Sie argumentieren:

„Die meisten Leser würden den grünen Bereich in Scafettas Widget interpretieren als eine Region, in der das IPCC vertrauensvoll Beobachtungen erwartet, die nicht wirklich durch ein 1-sigma-Intervall eingehüllt werden, welches nur 68,2% der Daten überdeckt (unter Voraussetzung einer Gauss-Verteilung). Ein 2-sigma-Umschlag würde etwa 95% dieser Beobachtungen überdecken, und sollten die Beobachtungen noch außerhalb dieses größeren Bereichs liegen, wäre dies ein echter Grund zur Sorge. Folglich wäre es eine geeignetere Wahl für Scafettas grüne Einhüllende“.

Es gibt zahlreiche Probleme in dem Kommentar oben von skepticalscience.

Erstens, die Breite meiner grünen Zone (die eine Startphase von etwa ±0,1°C im Jahr 2000 hat), gleicht genau dem, was das IPCC in seiner Abbildung SPM.5 geplottet hat. Hier zeige ich eine Vergrößerung dieser Abbildung:

Die beiden von mir hinzugefügten roten Linien zeigen die Bandbreite im Jahr 2000 (schwarze vertikale Linie). Die Bandbreite zwischen den beiden horizontalen roten Linien beträgt im Jahr 2000 etwa 0,2°C, wie es auch im grünen Bereich in meinem Widget geplottet ist. … Mein grüner Bereich repräsentiert genau das, was das IPCC in seiner Abbildung zeigt, wie ich übrigens explizit in meiner Studie feststelle und zeige.

Zweitens, skepticalscience behauptet, dass man für einen korrekten Vergleich eine 2-Sigma-Einhüllung braucht [?], und sie haben die folgende Abbildung hinzu gefügt, um ihre Behauptung zu stützen:

Das von skepticalscience hoch gehaltene Argument lautet, weil die Temperaturwerte innerhalb ihrer 2-sigma-Einhüllung des IPCC-Modells liegen, dass die IPCC-Modelle nicht widerlegt sind, wie es aus meinem Widget hervorgeht. Man beachte, dass die grüne Kurve keine gute Rekonstruktion meines Modells ist und zu tief liegt: vergleiche mit meinem Widget.

Allerdings ist es ein Trick zu behaupten, um Leute ohne statistisches Hintergrundwissen zu täuschen, dass die Festlegung einer sehr großen Fehlergrenze in einem Modell bedeutet, dass dieses Modell gültig ist.

Übrigens, im Gegensatz zu der Behauptung bei skepticalscience wird in der Statistik die 1-sigma-Einhüllung verwendet; nicht 2-sigma oder 3-sigma. Mehr noch, das gute Modell ist dasjenige mit dem kleinsten Fehler, nicht das mit dem größten Fehler.

Wie ich in meiner Studie nachgewiesen habe, hat tatsächlich das von mir vorgeschlagene harmonische Modell eine statistische Genauigkeit von ±0,05°C, innerhalb der es sehr gut die dekadische und multidekadische Modulation der Temperatur rekonstruiert: siehe hier.

Im Gegenteil, wenn wir die oben gezeigte Abbildung von skepticalscience benutzen, haben wir im Jahr 2000 einen 1-sigma-Fehler von ±0,15°C und einen 2-sigma-Fehler von ±0,3°C. Diese erhebliche und dicke Fehlerbreiten sind 3 bis 6 mal größer als in meinem harmonischen Modell. Folglich wird aus den Behauptungen von skepticalscience selbst klar, dass mein Modell viel genauer ist als das, was die Modelle des IPCC garantieren können.

Weiter, die Behauptung von skepticalscience, dass wir eine 2-sigma-Fehlereinhüllung brauchen, beweist indirekt auch, dass die IPCC-Modelle nicht der wissenschaftlichen Methode entsprechend validiert werden können und daher nicht in das Umfeld der Wissenschaft gehören. Tatsächlich muss die Validierung einer Modellstrategie einen ausreichend kleinen Fehler aufweisen, um in der Lage zu sein zu testen, ob das Modell die sichtbaren Verteilungen in den Daten identifizieren und rekonstruieren kann. Diese Verteilungen sind gegeben durch die gefundenen dekadischen und multidekadischen Zyklen, die eine Amplitude unter ±0,15°C haben; siehe hier. Folglich wird die Amplitude der erkannten Zyklen deutlich unterhalb der 2-sigma-einhüllenden Amplitude von ±0,3°C bei skepticalscience liegen (sie würde sogar noch unter der 1-sigma-einhüllenden Amplitude von ±0,15°C liegen).

Wie ich ebenfalls ausführlich in meiner Studie bewiesen habe, ist die Einhüllende des IPCC-Modells viel größer als die Amplitude der Temperaturverteilungen, die die Modelle rekonstruieren sollen. Folglich können diese Modelle nicht angemessen validiert werden und sind daher nutzlos für jede brauchbare dekadische und multidekadische Vorhersage/Projektion für praktische Zwecke, weil ihr mit ihnen verbundene Fehler viel zu groß ist, als selbst skepticalscience zulassen würde.

Solange die Modelle nicht eine Präzision von mindestens ±0,05°C garantieren und die dekadischen Verteilungen rekonstruieren können, wie es bei meinem Modell der Fall ist, können sie dagegen nicht bestehen und sind unbrauchbar, und zwar alle.

4. Kritik an der demnächst kommenden Aufzeichnung von HadCRUT4.

Skepticalscience hat auch behauptet, dass „drittens Scafetta die HadCRUT3-Daten verwendet hat, die bekanntlich einen großen Bias aufweisen und die in Kürze durch die Daten von HadCRUT4 ersetzt werden“ (hier).  

Die Daten von HadCRUT4 sind noch nicht verfügbar. Wir werden sehen was passiert, wenn das schließlich der Fall ist. Aus den Abbildungen hier geht nicht hervor, dass sie die Dinge drastisch verändern werden: die Differenz zu den HadCRUT3-Daten seit 2000 scheint lediglich bei 0,02°C zu liegen.

Für optimal passende Amplituden der Schwingungen in meinem Modell könnte in jedem Fall eine leichte Neukalibrierung erforderlich sein, aber HadCRUT4 zeigt eine klarere Abkühlung von 1940 bis 1970, die weiterhin einen 60-jährigen natürlichen Zyklus in meinem Modell stützt und weiterhin den IPCC-Modellen widerspricht. Siehe auch meine Studie zusammen mit Mazzarella, in der wir die HadSST3-Aufzeichnung bereits untersucht haben.

5. Kritik am langzeitlichen Trend

Es wurde dargelegt, dass der aufwärts gerichtete Trend wichtig ist, um die IPCC-Modelle und deren anthropogene Erwärmungstheorie zu stützen.

Wie ich jedoch in meiner Studie erklärt habe, ist 2/3 der Erwärmung zwischen 1970 und 2000 auf einen natürlichen Zyklus solaren/astronomischen Ursprungs zurückzuführen (oder sogar nur auf einen internen Ozeanzyklus allein). Daher ist der von den Modellen reproduzierte anthropogene Erwärmungstrend falsch und stark übertrieben. Dies lässt das meiste des langzeitlichen Erwärmungstrends von 1850 bis 2012 als Folge natürlicher Jahrhunderte langer Zyklen erscheinen, die auch in der Literatur gut bekannt sind.

Wie ich hier klar zum Ausdruck gebracht habe, sind in meinen veröffentlichten Studien die langzeitlichen und tausendjährigen Zyklen formal nicht enthalten, und zwar aus dem einfachen Grund, dass diese Zyklen erst genau identifiziert werden müssen: man kann sie nicht einfach irgendwo platzieren, und die globale Temperatur ist erst seit 1850 verfügbar, was ein zu kurzer Zeitraum ist, um diese längeren Zyklen genau zu lokalisieren und zu identifizieren.

Im Einzelnen hat skepticalscience argumentiert, dass das vorgeschlagene Modell (von Loehle und Scafetta), das nur auf den 60-jährigen und den 20-jährigen Zyklen basiert plus einem linearen Trend von 1850 bis 1950 und extrapoliert bis höchstens 2100, falsch sein muss, weil es bei einer Extrapolation von 2000 Jahren klar von sinnvollen Verteilungen abweicht, die man aus Temperaturrekonstruktionen aus Proxy-Daten gewonnen hat. Ihre Abbildung findet sich hier und wird hier reproduziert:

Jeder smarte Mensch würde sofort verstehen, dass dies ein weiterer Trick von skepticalscience ist, die Ignoranten zu täuschen.

Wie wir in unserer Studie klar festgestellt haben, ist es offensichtlich, dass wir die langzeitlichen und tausendjährigen Zyklen ignorieren und den natürlichen tausendjährigen harmonischen Trend lediglich approximieren mit einer linearen Approximation erster Ordnung, von der wir annehmen, dass sie sinnvoll auf 100 Jahre ausgedehnt werden kann, aber nicht länger. Es ist offensichtlich, dass es eine Dummheit ist, wenn man nicht unehrlich ist, dies für 2000 Jahre zu extrapolieren und zu behaupten, dass die Daten unseren Ergebnissen widersprechen. Siehe den ausführlichen Kommentar von Loehle und Scafetta.

Wie oben dargelegt wurden die langzeitlichen und tausendjährigen Zyklen absichtlich ausgeschlossen. Allerdings habe ich schon in einer vorläufigen Rekonstruktion 2010 mit diesen längeren Zyklen eingeschlossen veröffentlicht (leider nur in italienisch). Die Abbildung 6 aus dieser Studie ist diese:

Allerdings sind die Zyklen im obigen Modell nicht optimiert, was in Zukunft nachgeholt wird. Aber es ist ausreichend um zu zeigen, wie ideologisch naiv (und falsch) die Behauptung von skepticalscience ist.

In jedem Falle behandle ich den langzeitlichen Trend und seine Verbindung mit der solaren Modulation ausführlich in meinen früheren Studien seit 2005. Die letzte Studie, die sich auf diesen Punkt konzentriert, wird hier und noch ausführlicher hier besprochen. Die relevante Abbildung daraus folgt hier:

Die schwarzen Kurven repräsentieren die empirische Rekonstruktion der solaren Signatur im langzeitlichen Trend seit 1600. Die Kurve mit dem aufwärts gerichteten Trend seit 1970 wurde erstellt durch Verwendung des ACRIM TSI-Komposits (welches mit dem 60-jährigen Zyklus kompatibel ist). Die anderen Signaturen verwenden das PMOD TSI-Komposit, welche durch Manipulation von einigen Satellitenaufzeichnungen zustande gekommen ist mit der Entschuldigung, dass diese falsch seien.

Solange also die langzeitlichen und tausendjährigen Zyklen nicht akkurat identifiziert und angemessen in die harmonischen Modelle eingebaut sind, muss man die Studien mit den langzeitlichen TSI-Proxy-Rekonstruktionen verwenden, um den Vergleich mit langzeitlichen Trends zu verstehen, wie in meinen Veröffentlichungen von 2005 bis 2010. Deren Ergebnisse stehen in perfekter Übereinstimmung mit dem, was wir den jüngsten Studien entnehmen können, die sich auf astronomische Schwingungen konzentrieren und implizieren, dass nicht mehr als 0,2°C bis 0,3°C der seit 1850 beobachteten Erwärmung von 0,8°C mit anthropogenen Aktivitäten in Verbindung gebracht werden können. (Man lasse sich nicht durch die Kritik von Benestad und Schmidt 2009 täuschen, die mit empörenden mathematischen Fehlern gespickt ist und dessen Performanz des GISS-ModellsE in meinen letzten Studien stark in Frage gestellt worden ist, zusammen mit jenen der IPCC-Modelle).

Ich danke Anthony Watts für die Einladung, und ich entschuldige mich für die Übersetzungsfehler, die der obige Artikel sicher enthält*

N. Scarfetta

weiterführender Link hier

*Kursiv vom Übersetzer, der sich der Entschuldigung des Autors hinsichtlich seiner Übersetzung vom Italienischen ins Englische nur anschließen kann

Relevante Studien:

[1] Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models.” Journal of Atmospheric and Solar-Terrestrial Physics, (2012). DOI: 10.1016/j.jastp.2011.12.005

[2] Adriano Mazzarella and Nicola Scafetta, “Evidences for a quasi 60-year North Atlantic Oscillation since 1700 and its meaning for global climate change.” Theor. Appl. Climatol. (2011). DOI: 10.1007/s00704-011-0499-4

[3] Craig Loehle and Nicola Scafetta, “Climate Change Attribution Using Empirical Decomposition of Climatic Data.” The Open Atmospheric Science Journal 5, 74-86 (2011). DOI: 10.2174/1874282301105010074

[4] Nicola Scafetta, “A shared frequency set between the historical mid-latitude aurora records and the global surface temperature.” Journal of Atmospheric and Solar-Terrestrial Physics 74, 145-163 (2012). DOI: 10.1016/j.jastp.2011.10.013

[5] Nicola Scafetta, “Empirical evidence for a celestial origin of the climate oscillations and its implications.” Journal of Atmospheric and Solar-Terrestrial Physics 72, 951–970 (2010). DOI: 10.1016/j.jastp.2010.04.015

Zusätzliche Mitteilungen und interessante Links:

Global Warming? No, Natural, Predictable Climate Change, Larry Bell

http://www.forbes.com/sites/larrybell/2012/01/10/global-warming-no-natural-predictable-climate-change/

http://wattsupwiththat.com/2012/01/09/scaffeta-on-his-latest-paper-harmonic-climate-model-versus-the-ipcc-general-circulation-climate-models/

http://scienceandpublicpolicy.org/images/stories/papers/reprint/astronomical_harmonics.pd

Link: http://wattsupwiththat.com/2012/03/11/scafetta-prediction-widget-update/

Übersetzt von Chris Frey EIKE