Klimawissenschaft: Fehler von Fehlverhalten trennen

In einem kürzlich bei Climate Audit erschienenen Artikel wird untersucht, ob eine Graphik absichtlich oder unabsichtlich verkehrt herum dargestellt worden ist. In der Einleitung wird gefragt:
Spielt es eine Rolle, ob Proxys verkehrt herum verwendet werden oder nicht?
Vielleicht nicht in der Welt von Michael Mann (in der er als Erwiderung auf unsere Kritik bei PNAS behauptete, dass es für ihn unmöglich sei, Reihen verkehrt herum zu verwenden). Aber anders als Mann räumt Darrell Kaufman die Verantwortung ein, Proxy-Reihen in der richtigen Reihenfolge zu verwenden. Unglücklicherweise scheinen er und die PAGES2K-Autoren nicht sehr erpicht darauf zu sein sicherzustellen, dass sie das auch so machen.
Diese Story läuft parallel zur Tijander-Graphik, einer früheren Verkehrt-Herum-Präsentation in dem Debakel um den „Hockeyschläger“, der dazu erdacht worden ist, die Klima-Historie umzuschreiben dergestalt, dass die Mittelalterliche Warmzeit MWP aus den Statistiken eliminiert wird. Bei Climate Audit hat man sich auch die Tijander-Graphik vorgenommen und erschöpfend untersucht.
McIntyre und McKitrick (M&M) kommt der Verdienst zu, die von Mann et al. angewendeten ungeeigneten statistischen Methoden bloßgestellt zu haben, mit denen die Hockeyschlägergraphik erstellt worden ist. Diese hat ja den Missbrauch der Klimawissenschaft seitens des IPCC an das Tageslicht gebracht. Allerdings hat der große australische Skeptiker John Daly das größere Problem erkannt, bevor M&M die falschen Methoden bloßgestellt hatten. Ich empfehle dringend allen Menschen Dalys bemerkenswerte Analyse in seinem Artikel „The ‘Hockey Stick’: A New Low in Climate Science” zu lesen. Man beachte, dass dieser Artikel vor M&M erschienen war, findet sich doch darin keinerlei Querverweis auf deren Arbeit. Stattdessen handelt es sich dabei um eine synoptische Klimaanalyse dessen, was falsch ist.
Ich verstehe es so, dass McIntiyre den „Hockeyschläger“ auf einer Konferenz gesehen und ohne zu wissen, dass es eine Darstellung der globalen Temperatur sein sollte, aus seiner Erfahrung mit Statistik heraus sofort erkannt hat, dass es sich um eine potentiell manipulierte Darstellung handelt. Aus der Analyse von M&M geht klar hervor, mit welchen spezifischen Mitteln diese Graphik erzeugt worden ist. Eine Zeitlang kritisierten Kommentatoren auf der Website von McIntyre, dass dieser unwillig war zu sagen, dass Manns Aktionen absichtlich irreführend waren. Korrekterweise billigte ihm McIntyre zunächst das Recht auf Zweifel zu und ging davon aus, dass es bei ihm fehlendes Wissen und Verständnis war. Ethisch gibt es einen Unterschied zwischen einem Fehler und einem vorsätzlichen Fehler. Dies war Thema meiner Präsentation auf der 6. Heartland-Klimakonferenz in Washington D.C., aber dort kam das Argument, dass der gesamte IPCC-Prozess vorsätzlich war ebenso wie die Ergebnisse ihrer Computermodelle.
Der Missbrauch spezialisierter Methoden und Verfahren ist ein fundamentales Problem wegen der allgemeinen wissenschaftlichen Natur der Klimatologie. Die meisten sind Spezialisten nur in einer einzelnen Hinsicht und nennen sich dann fälschlich Klimawissenschaftler. Wenn sie versuchen, Stücke des riesigen Systems zusammenzufügen, müssen sie unvermeidlich zu unvertrauten Methoden und Verfahren greifen. Die Wahrscheinlichkeit eines Fehlers ist hoch. Dies ist höchst problematisch für Computer-Modellierer.
Das IPCC hat solche Spezialisten zusammengebracht und sie damit beauftragt, die Hypothese zu beweisen (anstatt sie zu widerlegen), dass die Menschen Grund für die globale Erwärmung (AGW) sind. Es war eine unheilige Allianz, die ein Umfeld von Missbrauch schuf. Sie fabrizierten wissenschaftliche Beweise in Fachbereichen, von denen sie kaum Ahnung hatten, und zwar mit Methoden und Verfahren, von denen sie sogar noch weniger Ahnung hatten. Mit massiven Finanzzuwendungen und politischer Unterstützung wurde dies zu einem Rezept für Katastrophen, wie es in den durchgesickerten E-Mails der Climate Research Unit (CRU) offenbar geworden ist. Das Ergebnis rechtfertigt die Mittel: man tue alles, was immer notwendig ist, um zu zeigen, dass menschliches CO2 die Ursache der globalen Erwärmung ist und dass die derzeitigen Temperaturen die höchsten jemals waren. CRU war eine kleine Gruppe und ein klassisches Beispiel von Gruppendenken, befeuert durch die Politik, wie ich seinerzeit hier erklärt habe.
Irving Janis erklärt das Konzept von Gruppendenken, welches Einmütigkeit erfordert auf Kosten von Entscheidungen hinsichtlich der Qualität. Ein kürzlich bei WUWT erschienener Beitrag befasste sich mit dem Problem des Gruppendenkens im Gebiet der Physik (hier):
Vom Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Aktionen durchzuführen, die andere Gruppen entseelen. Eine Gruppe ist besonders verwundbar durch Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe abgeschirmt ist von externen Meinungen und wenn es keine klaren Regeln für die Entscheidungsfindung gibt.
Lubos Motl berichtete über den Kommentar von Benjamin Santer vom 25. April, in dem er sagte:
Ich schaute mir Einiges von dem Zeug bei Climate Audit an. Ich hatte wirklich das Gefühl, dass ich mal mit einigen dieser „Auditoren“ in einer dunklen Ecke reden sollte.
Dies ist der gleiche Santer, der als Leitautor einen zuvor abgesegneten IPCC-Bericht noch verändert hat. Avery und Singer schrieben im Jahre 2006:
Santer hat im Alleingang die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes auf den Kopf gestellt und damit auch den politischen Prozess bzgl. der globalen Erwärmung! Der vom IPCC proklamierte vermeintliche ,erkennbare menschliche Einfluss‘ wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Diskussionen unter Nichtwissenschaftlern“.
Es ist kaum vorstellbar, dass Santer nicht wusste, was er tat. Als seine Änderungen öffentlich gemacht worden waren, wurde eine rapide Antwort erzeugt, die eine Vertuschung zu sein scheint. Zu den diesbezüglichen Aktionen folgt hier noch einmal mit kleinen Änderungen, was ich seinerzeit dazu geschrieben habe:
Am 4. Juli 1996, kurz nach der Enthüllung, wartete das offensichtlich willfährige Journal Nature mit einem Artikel auf unter der Überschrift A Search for Human Influences On the Thermal Structure of the Atmosphere”. Mitgeliefert wurde eine nur allzu bekannte Liste von Autoren – Santer, Wigley, Mitchell, Oort und Stouffer. Er bot beobachtbare Beweise, die zeigten, dass die Modelle akkurat waren. Eine Graphik ist so viel wert wie tausend Worte, wie Manns „Hockeyschläger“ zeigte, und genauso war es mit Santers ,erkennbarem menschlichen Einfluss‚. John Daly reproduzierte die Graphik von Santer et al. (Abbildung 1) mit dem aufwärts gerichteten Temperaturtrend in der oberen Atmosphäre:

Abbildung 1
Dann erstellte Daly eine Graphik mit dem größeren Datensatz in Abbildung 2 und erklärte: „Wir erkennen, dass die in Santers Version erkennbare Erwärmung einfach das Ergebnis der ausgewählten Daten ist“ (Fettdruck von Daly):

Abbildung 2
Fast sofort wurden Fehler entdeckt, aber Nature hat sich mit der Veröffentlichung der Widerlegungen 5 Monate Zeit gelassen (bis zum 12. Dezember 1996), nachdem der oben besprochene Artikel veröffentlicht worden war. Einer erkannte die Rosinenpickerei, ein anderer stellte eine natürliche Erklärung für das Phänomen vor. Allerdings war zu jener Zeit die PR-Verschleierung bereits im Gange. Am 25. Juli 1996 sandte die American Meteorological Society AMS eine Brief der Verteidigung an Santer. Der Brief scheint den CRU-Einfluss zu beweisen und ist ein PR-Meisterstück. Es hieß darin, dass es zwei Fragen gebe, die Wissenschaft und was die Gesellschaft hinsichtlich der wissenschaftlichen Ergebnisse und der Debatte tun muss, die sie ausgelöst haben. Wissenschaft sollte nur in wissenschaftlich begutachteten Fachjournalen besprochen werden und nicht in den Medien. Dies war die in einer durchgesickerten E-Mail bestätigte Strategie von Mann. „Das war die Gefahr, die Skeptiker immer zu kritisieren, weil sie nichts in der ,begutachteten Literatur‘ veröffentlichen“. Darauf schrieb die AMS: Was zählt, ist wissenschaftliche Information und wie diese in politischen Debatten interpretiert wird. Das ist ein wichtiger Teil unserer Aufgaben. Das sind schließlich die wirklichen Gründe für die Vermischung von Wissenschaft und Politik im IPCC. Daly nannte das zu Recht „Wissenschaftismus“ [scientism].
Die Zurückweisung scheint zu belegen, dass Santer wusste, was er tat mit seinen Original-Änderungen des IPCC-Berichtes. Er wusste eindeutig um den willkürlich gewählten Start- und Endzeitpunkt der Graphik. Jeder Graph muss einen Start- und einen Endzeitpunkt haben, aber dieses Beispiel fand sich in einem Artikel, der geschrieben worden war, um die Bloßstellung seiner Umformulierungen zu verwerten.
Die Verteidigung von Santer erfolgte offensichtlich konzertiert und folgte einem Muster, das immer dann zur Anwendung kam, wenn Fehlverhalten ans Tageslicht gekommen war. Das Einspannen offizieller Agenturen zur Abdeckung des Fehlverhaltens erklärt vieles, warum das immer weiter betrieben wurde. Es erklärt auch, warum die Täter weiterhin glauben, dass sie nichts Falsches getan haben.
Phil Jones hat nach der Veröffentlichung der E-Mails die Polizei gerufen. Um die Behauptung eines Hacker-Angriffs zu stützen, musste er zugeben, dass sie echt waren. Die Ergebnisse waren bedeutungslos, weil sich die Untersuchung hinzog, bis das Statute of Limitations [?] ausgelaufen war. In einer dem widersprechenden Schlussfolgerung sagte die Polizei:
Besonders die internationale Dimension, das World Wide Web zu untersuchen, hat sich als extreme Herausforderung erwiesen … Als Ergebnis unserer Ermittlungen können wir jedoch sagen, dass der Datendiebstahl das Ergebnis eines ausgeklügelten und sorgfältig orchestrierten Angriffs auf die Datensätze der CRU war, durchgeführt via Internet“.
Das ist einfach unglaubwürdig angesichts des Ausmaßes, mit dem gewöhnliche Bürger ausspioniert werden, und angesichts des Ausmaßes an Wissen, das erforderlich ist, um aus 220.000 E-Mails 1000 herauszufiltern. Es gibt drei Möglichkeiten: Sie sind inkompetent, absichtlich irreführend oder beides. Wie auch immer, es war zu langsam, um dem Glaubwürdigkeitsverlust der gesamten IPCC-Operation zu begegnen.
Als Folge wurden blitzartig fünf kontrollierte Untersuchungen initiiert, alle orchestriert, um irrezuführen und abzulenken. Hans von Storch schrieb über die 3 Untersuchungen in UK:
Wir müssen uns selbstkritisch fragen, was da geschehen ist. Nichts darf unter den Teppich gekehrt werden. Einige der Untersuchungen wie in UK haben genau das getan. Sie haben eine Gelegenheit, Vertrauen wiederherzustellen, verpasst“*
[*Rückübersetzung aus dem Englischen].
Lord Oxburgh wurde berufen, eine der Untersuchungen zu leiten.
Oxburgh war kompromittiert, weil er ein Mitglied der Royal Society ist. Wichtiger aber ist, dass er leitender Direktor der Carbon Capture and Storage Association und Vorsitzender of Falck Renewable Resources ist, die sehr von der Behauptung profitieren, dass menschliches CO2 Erwärmung verursacht. Er befürwortete auch die Erwärmungs-Behauptung als Vizevorsitzender von GLOBE International in UK, einem Konsortium von Industrie, NGOs und der Regierung, die für die Politik zur globalen Erwärmung Lobbyarbeit leistet.
Es folgt eine Liste der Probleme bei der Oxburgh-Untersuchung:
Die Oxburgh-Untersuchung sollte die CRU-Wissenschaft untersuchen, aber um das zu tun, gab es a) keine öffentlichen Anhörungen und b) keine Anforderung von Beweisen.
Nur 11 akademische Studien wurden untersucht, eine Liste, die von Phil Jones unter die Lupe genommen worden war. Er war Direktor der CRU, also der Agentur, die untersucht werden sollte.
Interviews mit CRU-Mitarbeitern wurden nur hinter verschlossenen Türen durchgeführt.
Es gab keine Zusammenkunft mit CRU-Kritikern.
Die UEA hatte die effektive Kontrolle über die gesamte Untersuchung.
Das Select Committee des Unterhauses in UK hat Oxburgh hinsichtlich der Oberflächlichkeit seiner Studie und seines Berichtes sowie seiner versprochenen Begutachtung der Wissenschaft in die Mangel genommen.
Mehr Informationen hierzu gibt es in der detaillierten Zusammenfassung der Grenzen aller Untersuchungen bei Andrew Montford. Die Untersuchung von Muir Russell war so schlecht, dass selbst Guardian’s Fred Pearce schrieb:
Geheimniskrämerei stand bei der CRU auf der Tagesordnung. Wir fanden, dass es dort ein konsistentes Verhalten gab, nicht dem gebotenen Grad an Offenheit zu folgen, heißt es in dem Bericht. Diese Kritik richtet sich nicht nur an Jones und sein Team an der CRU. Sie richtet sich genauso an die Universität selbst, die empört sein könnte, sich selbst genauso im Schlamassel zu finden wie die Wissenschaftler, über die zu richten Russell beauftragt worden war“.
Jeder macht Fehler in der Wissenschaft, aber normalerweise werden diese im idealerweise unpersönlichen und professionellen Begutachtungsprozess gefunden. In Santers Fall haben seine Mitautoren die Begutachtung durchgeführt. Er hat beschlossen, deren Bedenken beiseite zu schieben und wurde erwischt. Der Artikel zum Hockeyschläger war begutachtet, aber wie Prof. Wegman in seinem Bericht an ein Komitee des Kongresses schrieb:
In unserer weiteren Erkundung des Netzwerkes der Autoren der Temperatur-Rekonstruktion fanden wir, dass mindestens 43 Autoren direkte Verbindungen zu Dr. Mann haben, und zwar in Gestalt der Mitautorenschaft seiner Studien. Unsere Ergebnisse dieser Analyse zeigen, dass Autoren im Fachgebiet Paläoklima eng verbandelt sind und dass daher ,unabhängige Studien‘ nicht so unabhängig sein könnten, wie sie an der Oberfläche aussehen.
Dieses Ergebnis wurde durch die durchgesickerten CRU-E-Mails bestätigt. Die Korruption dieses Prozesses seitens der CRU bedeutete Fehler, die absichtlich oder unabsichtlich Eingang in die wissenschaftliche Aufzeichnung fanden. Außerdem wurde die Verschleierung und die Ablehnung der Veröffentlichung von Daten zum Standard. Wegman dazu:
Es ist nicht klar, dass Mann und seine Verbündeten den Fehler in ihrer Verfahrensweise zur Zeit der Veröffentlichung erkannt haben. Infolge fehlender vollständiger Dokumentation ihrer Daten und Computer-Codes waren wir nicht in der Lage, ihre Forschungen nachzuvollziehen. Wir haben jedoch bei der Reproduktion der Verfahren von M&M ähnliche Ergebnisse wie diese erzielt. Dieses Nachvollziehen stützt die Kritik der MBH98-Methoden, wo der Offset* des mittleren Wertes eine künstlich große Abweichung vom gewünschten mittleren Wert Null erzeugt.
[*Original: „as the offset of the mean value creates an artificially large deviation from the desired mean value of zero“. Das habe ich inhaltlich nicht verstanden. Im LEO werden für ,offset‘ so viele Bedeutungen angezeigt, dass ich deswegen da ratlos war. Anm. d. Übers.]
Sie wussten, warum man die Daten in Erfahrung bringen wollte. Phil Jones antwortete am 21. Februar 2005 auf die Datenanforderung von Warwick Hughes so:
Wir haben etwa 25 Jahre in die Arbeit gesteckt. Warum sollte ich Ihnen die Daten zugänglich machen, wenn es Ihr Ziel ist zu versuchen, Fehler darin zu finden?“
Später sagte Jones dass er die Daten verloren habe. Werden auch andere Daten im Nirwana verschwinden?
Bedeutsam ist hier die Natur des Fehlers. Falls er entscheidend war für eine These oder eine wissenschaftliche Schlussfolgerung, wurde der Fehler aus Inkompetenz oder mit Absicht gemacht. Wie auch immer, die dafür verantwortliche Person ist auf seiner Position wegen seiner Behauptungen fehl am Platze.
Entscheidend für die IPCC-Objetive war die Notwendigkeit zu beweisen, dass die menschliche Erzeugung von CO2 zu Temperaturzunahmen führte und Temperaturen zeitigte, die in der gesamten Historie höher denn je lagen. Ist es Zufall, dass dies die Bereiche sind, wo die Wissenschaft geschaffen wurde, um das vorbestimmte Ergebnis zu bekommen? Es scheint, dass sich eine Verteilung von Fehlern heraus kristallisiert, die Fehlverhalten beweisen. Unglücklicherweise weiß ich nicht um die Verantwortlichkeiten, aber dies ist allgemein die Lage mit den verbundenen Punkten des Fehlverhaltens in der heutigen Gesellschaft.
Link: http://wattsupwiththat.com/2014/10/12/climate-science-separating-mistakes-from-malfeasance/
Übersetzt von Chris Frey EIKE




CO2-Daten mögen ja der IPCC-Hypothese genügen, entsprechen aber nicht der Realität

Man erschaffe die gewünschten Fakten

In einem Kommentar zu dem Beitrag auf WUWT „The Record of recent Man-made CO2 emissions: 1965-2013” hat Pamela Gray die Lage graphisch, aber pointiert zusammengefasst:
Wann endlich werden wir die Mathematik betreiben? Der allein anthropogene Anteil am atmosphärischen CO2, vor allem der Anteil Chinas, hat nicht die erforderliche Fähigkeit, auch nur ein winziges bisschen „Wetter“ auch nur ein wenig zu verändern. Man entferne nur den anthropogenen CO2-Anteil und lasse die vergangenen 30 Jahre bzgl. des Wetters noch einmal Revue passieren. Es wäre zu genau den gleichen Wetterabläufen gekommen. Oder vielleicht wäre es wegen der dem Wetter eigenen Natur noch schlimmer gekommen. Oder vielleicht besser. Jetzt mache man etwas wirklich Lächerliches: man nehme den Anteil Chinas heraus. Ich weiß, dass es in dem Beitrag nicht darum geht, China als den bösen Buben hinzustellen. Aber. Wirklich? Wirklich? All das für etwas, das so klein ist, dass man es gar nicht finden kann? Nicht einmal im Luftballon eines Kindes?
Die einzige Deutung, die mir einfällt ist, dass die Menge die Sinnlosigkeit der Behauptungen illustriert, wie Gray anmerkt, aber das IPCC und die EPA konzentrieren sich auf Trends und Zuordnungen. Es muss einen menschlichen Grund haben und stetig zunehmen, oder, wie sie es bevorzugen – es muss schlimmer werden.

Verengung des Blickwinkels

Es ist erforderlich, die Kritik an den vom IPCC erzeugten CO2-Niveaus während der ganzen letzten Jahre wieder aufzugreifen. Heutzutage ist die Vehemenz persönlicher Attacken eine Maßzahl für das Zutreffen der Kritik, zielen diese doch darauf ab, von Wissenschaft und Beweisen abzulenken.
Seit seiner Gründung konzentrierte sich das IPCC auf die menschliche Produktion von CO2. Es begann mit der Definition von Klimaänderung, die von der UNFCCC vorgegeben worden war und die vom Menschen als die einzige Quelle ausging. Ziel war es, die Hypothese zu belegen, dass der zunehmende atmosphärische CO2-Gehalt zu einer Erwärmung führen würde. Dies erforderte Beweise, dass das Niveau seit der vorindustriellen Zeit zugenommen hat und jedes Jahr weiter zunehmen wird wegen der menschlichen industriellen Aktivität. Wie lange wird es noch dauern, bis sie anfangen, die Rate der CO2-Zunahme zu reduzieren, um den sinkenden Temperaturen Rechnung zu tragen? Ihnen gehen allmählich die Entschuldigungen aus, zuletzt mindestens 30 [auf Deutsch beim EIKE hier], um das fortgesetzte Fehlen einer Temperaturzunahme zu erklären.Inzwischen sind es 17 Jahre und 10 Monate.

Das IPCC stellt die bizarre Behauptung auf, dass bis zum Jahr 1950 der menschliche CO2-Eintrag ein untergeordneter Treiber der globalen Temperatur war. Danach sind über 90% der Temperaturzunahme dem menschlichen CO2 geschuldet.

Das meiste der beobachteten Zunahme der globalen mittleren Temperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich der beobachteten Zunahme der atmosphärischen Treibhausgas-Konzentrationen geschuldet.

Die Behauptung, dass eine geringfügige CO2-Zunahme aus anthropogenen Quellen, welches natürlicherweise nur 4% aller Treibhausgase ausmacht, der dominante Faktor innerhalb nur weniger Jahre wird, ist unglaublich. Diese Behauptung entstammt Computermodellen. Sie sind der einzige Ort auf der ganzen Welt, wo eine CO2-Zunahme eine Temperaturzunahme verursacht. Sie hängt ab von der menschlichen Produktion und dem zunehmenden atmosphärischen Niveau. Sie nehmen an, dass die Temperatur immer weiter steigt, wie alle drei IPCC-Szenarien implizieren.
Ihre Frustration ist, dass sie zwar die CO2-Daten kontrollieren, aber nachdem die University of Alabama in Huntsville (UAH) mit der Aufzeichnung von globalen Temperaturdaten via Satelliten begonnen hatte, war die Kontrolle der globalen Temperaturdaten beschränkt. Es hat sie allerdings nicht völlig davon abgehalten, wie McIntyre, Watts, Goddard, die New Zealand Climate Science Coalition und viele andere illustriert haben.
Und jetzt sind sie konfrontiert mit einem Problem, das T. H. Huxley aufgeworfen hatte:

Die große Tragödie der Wissenschaft – die Zerschlagung einer wunderbaren Hypothese durch eine hässliche Tatsache.

Dieser Artikel beleuchtet, wie das derzeitige atmosphärische CO2-Niveau bestimmt und kontrolliert wird, um zur Hypothese zu passen. Sie können sich an eine politische Agenda anpassen, aber sie können sich nicht die Agenda der Natur zupass machen.

Eine neue deduktive Methode: Man erschaffe sich Fakten, die zur Theorie passen

Farhad Manjoo fragte in dem Beitrag True Enough: Learning To Live In A Post-fact Society:
Warum hat in jüngster Zeit Gelehrsamkeit die Nachrichten gekapert? Warum scheinen sich Lügen so lange im kulturellen Unterbewusstsein zu halten, selbst nachdem sie längst nachhaltig offengelegt worden waren? Und warum funktioniert faktenfreie Propaganda so gut, wo doch mehr Menschen als je zuvor die Wahrheit mit Laptops und digitalen Kameras festhalten?
Manjoos Kommentare sprechen die Gesellschaft allgemein an, sind aber über die Klimawissenschaft besonders ausgeprägt wegen der unterschiedlichen Fähigkeiten der Öffentlichkeit hinsichtlich wissenschaftlicher Belange. Eine große Mehrheit kann leicht betrogen werden.
Manjoo argumentiert, dass die Leute sich die Fakten selbst zusammen schustern oder jemanden finden, der es für sie macht. Die Fabrikation von Daten ist die einzige Option in der Klimawissenschaft, weil – wie es der NRC-Bericht aus dem Jahr 1999 zeigte – es praktisch keine wirklichen Daten gibt. In dem Bericht vom US National Research Council (NRC) über Klimadaten vom 3. Februar 1999 heißt es:
Defizite hinsichtlich der Genauigkeit, Qualität und Kontinuität der Aufzeichnungen lassen ernste Zweifel an dem Vertrauen aufkommen, dass man den Forschungsergebnissen entgegen bringen kann.
Die Lage ist heutzutage noch schlimmer. Die Anzahl der verwendeten Stationen ist dramatisch reduziert worden, und Aufzeichnungen wurden hin zu niedrigeren historischen Daten verbogen. Dadurch nahm der Gradient in den Aufzeichnungen zu. Jüngst wurde das Fehlen von Ozean-Daten erkannt.
Zwei der führenden Ozeanographen von Harvard und dem MIT haben die begrenzten Daten angesprochen, die gegenwärtig die ozeanographische Gemeinschaft daran hindern, die Differenzen zwischen den vielen Schätzungen des ozeanischen Wärmegehaltes zu lösen.
Die Ozeane sind eine Schlüsselgröße hinsichtlich des CO2-Niveaus, und zwar wegen ihrer großen Kapazität als Quelle oder Senke.
Die Daten, die notwendig sind für eine ordentliche Festlegung der Klimaprozesse und daraus folgend der Klimaänderung, sind durchweg ungenügend. Dies gilt vor allem für die Struktur von Klimamodellen. Es gibt für mindestens 80% des den Globus umspannenden Netzes keine Daten, so dass sie raten: das nennt man Parametrisierung. Im IPCC-Bericht 2007 heißt es dazu:
Infolge der begrenzten Auflösung der Modelle können viele dieser Prozesse durch das Gitternetz der Modelle nicht angemessen aufgelöst werden und müssen daher parametrisiert werden. Die Unterschiede zwischen den Parametrisierungen sind ein wichtiger Grund für die Abweichungen der Klimamodelle untereinander.
Infolge der ungenügenden Datenlage tauchen unterschiedliche Ergebnisse auf, und die beteiligten Personen treffen eine subjektive Auswahl.

Das IPCC fabriziert die menschlichen Erzeugungs-Zahlen

Im IPCC-Bericht 2001 wurden 6,5 Gigatonnen Kohlenstoff als von menschlichen Quellen stammend identifiziert. Diese Zahl stieg auf 7,5 Gigatonnen im Bericht 2007 und bis 2010 auf 9,5 Gigatonnen. Woher haben sie diese Zahlen genommen? Antwort: Das IPCC hat sie erfunden und dann weiterverwendet. In der FAQ-Sektion fragen sie: „Wie erzeugt das IPCC seine Leitlinien?“
Zur Verwertung der ICC-Methoden werden Experten auf der ganzen Welt nominiert, die Berichte zu entwerfen, die dann extensiv zweimal begutachtet werden, bevor sie vom IPCC genehmigt werden.
Bis zum Bericht 2013 wurden diese Special Reports on Emissions Scenarios (SRES) genannt. Danach wurden sie zu Representative Concentration Pathways (RCP). Im März 2001 berichtet John Daly von Richard Lindzen unter Bezug auf die SRES und den gesamten IPCC-Prozess einschließlich SRES Folgendes:
In einem kürzlich geführten Interview mit James Glassman sagte Dr. Lindzen, dass der jüngste IPCC-Bericht (den er mit geschrieben hatte) „sehr stark wie ein Kinderspiel dessen war, was möglicherweise passiert“, vorbereitet durch eine „sonderbare Gruppe“ [a peculiar group] „ohne technische Kompetenz“.
William Kininmomth, Autor des aufschlussreichen Buches „Climate Change: A Natural Hazard“, war einst Leiter des National Climate Centre von Australien und dessen Delegation bei der WMO-Kommission für Klimatologie. Er schrieb Folgendes an die Site von ClimateSceptics:

Zuerst war ich verwirrt über das im AR 5 auftauchende RCP-Konzept. Ich kam zu der Schlussfolgerung, dass RCP nicht mehr ist als ein Taschenspielertrick, um die Leser zu verwirren und die Absurditäten in früheren Verfahren zu verstecken.

Man wird sich erinnern, dass die früheren Kohlenstoff-Emissionsszenarien vermeintlich auf soliden wirtschaftlichen Modellen beruhten. Allerdings ist diese Grundlage durch angesehene Ökonomen in Frage gestellt worden, und die Wirtschafts-Modellierung des IPCC blieb ziemlich zerfleddert und mit einem riesigen Fragezeichen darüber zurück.

Ich fühle, dass das RCP-Verfahren die zweifelhafte ökonomische Modellierung überbrückt: vorgeschriebene Strahlungs-Antriebe werden in die Klimamodelle gefüttert, um in der Zukunft einen Temperaturanstieg zu bekommen – falls der Strahlungsantrieb bei 8,5 W/m² ein Plateau erreicht irgendwann nach dem Jahr 2100, wird der globale Temperaturanstieg 3°C betragen. Aber was bedeuten 8,5 W/m²? Zuvor war bei einer Verdoppelung des CO2 ein Strahlungsantrieb von 3,7 W/m² im Gespräch. Um einen Strahlungsantrieb von 7,4 W/m² zu erreichen, müsste es noch eine Verdoppelung geben – eine viermal so hohe CO2-Konzentration. Folglich muss die atmosphärische CO2-Konzentration 1120 ppm nach dem Jahr 2100 übersteigen, um RCP 8,5 zu folgen.

Wir bleiben zurück mit der Frage nach dem Realismus eines solchen RCP 8,5-Szenarios. Besteht irgendeine Wahrscheinlichkeit, dass das atmosphärische CO2 nach 2100 1120 ppm erreichen wird? Das IPCC hat ein Strohmann-Szenario ins Spiel gebracht, um einen ,gefährlichen‘ globalen Temperaturanstieg von 3°C zu Anfang des 22. Jahrhunderts zu bekommen. Dabei wusste es vollkommen, dass eine solche Konzentration extrem unwahrscheinlich ist. Aber natürlich wird dies den Politikern und den politischen Entscheidungsträgern nicht erläutert. Ihnen wird nur das gefährliche Ergebnis vor Augen gehalten, falls man dem RCP 8,5 folgt ohne jeden Hinweis auf die geringe Wahrscheinlichkeit eines solchen Geschehens.
Eine Absurdität wird durch eine andere ersetzt! Oder habe ich etwas Grundlegendes übersehen?[1]
Nein, es fehlt nichts! Allerdings spielt es in der Wirklichkeit gar keine Rolle, ob sich dadurch irgendetwas ändert; es erfüllt das Ziel einer CO2-Zunahme und deren vermeintliche Auswirkung auf die globale Erwärmung. Die Untermauerung der IPCC-Klimawissenschaft und der Wirtschaft hängt von genauen Daten und profunden Kenntnissen der Prozesse statt. Beides ist nicht verfügbar.
Wir wissen, dass die Wetterdaten, auf denen Klimamodelle konstruiert werden, unzureichend sind, und die Lage wurde noch verschlimmert durch das Herausnehmen von Wetterstationen. Andere wurden ,adjustiert‘ und die Daten willkürlich herausgepickt. Wir wissen, dass die Kenntnisse der Prozesse unvollkommen sind, weil der IPCC-WGI-Bericht genau das sagt:
Unglücklicherweise sind die Wärme- und Wasserflüsse an der Oberfläche nicht gut dokumentiert.
Oder, damit die Modelle genau die jahreszeitlich wechselnde Verteilung des Niederschlags akkurat simulieren können, müssen sie korrekt eine Anzahl von Prozessen simulieren (z. B. Verdunstung, Kondensation, Transport). Dies ist im globalen Maßstab sehr schwierig zu evaluieren.
Zwei kritische Situationen standen im Mittelpunkt, das atmosphärische CO2-Niveau zu kontrollieren. Wir wissen, dass Guy Stewart Callendar, ein britischer Dampfmaschinen-Ingenieur, die niedrigen Zahlen aus 90.000 atmosphärischen CO2-Messungen im 19. Jahrhundert herausgepickt hatte. Dies etablierte nicht nur ein geringes vorindustrielles Niveau, sondern veränderte auch den Trend des atmosphärischen Niveaus (siehe folgende Abbildung:)

Abbildung 1 (Nach Jaworowski; Trendlinien hinzugefügt)
Callendars Arbeit war einflussreich hinsichtlich der von Gore aufgestellten Behauptungen über vom Menschen induzierte CO2-Zunahmen. Das einflussreichste Papier in der Klimagemeinschaft, vor allem an der CRU und beim IPCC, war jedoch die Studie von Tom Wigley aus dem Jahr 1983 mit dem Titel „The Pre-industrial carbon dioxide level“ (Climatic Change. 5, 315-320). Ich habe Seminare abgehalten über dessen Validität und Selektivität zur Etablierung einer vorindustriellen Basislinie.

Ich schrieb einen Nachruf auf Ernst Georg Beck, nachdem ich von seinem überraschenden Ableben erfahren hatte:

Ich war geschmeichelt, als er mich bat, eine seiner frühen Studien zur historischen Verteilung von atmosphärischem CO2 und dessen Beziehung zur globalen Erwärmung zu begutachten. Ich war begeistert von der Präzision, den Details und dem Wahrnehmungsvermögen und drängte auf die Veröffentlichung dieser Studie. Ich warnte ihn auch vor persönlichen Angriffen und unwissenschaftlichen Anwürfen, die er zu erwarten hatte. Am 6. November schrieb er mir: „In Deutschland ist die Lage vergleichbar mit den Zeiten der mittelalterlichen Inquisition“. Glücklicherweise war er nicht abgeschreckt. Sein Freund Edgar Gärtner erklärte Becks Beitrag in seinem Nachruf. „Aufgrund seines immensen Fachwissens und seiner methodischen Strenge fielen Ernst sehr frühzeitig zahlreiche Ungereimtheiten in den Aussagen des „Weltklimarates“ IPCC auf. Er hielt es schlicht für unvorstellbar, dass ein Anstieg des Kohlenstoffdioxid-Gehaltes der Luft von winzigen 0,03 auf kaum weniger winzige 0,04 Volumenprozent für die in den vergangenen Jahrzehnten eher gefühlte als gemessene Erwärmung der Erdatmosphäre verantwortlich sein sollte. Und er zweifelte daran, dass man die seit 1957/58 auf dem Hawaii-Vulkan Mauna Loa aufgezeichnete Kurve des CO2-Anstiegs linear bis ins 19. Jahrhundert nach rückwärts datieren kann“.*

[*Dieses Zitat ist das deutsche Original von Gärtner und keine Rückübersetzung aus Dr. Ball! Ball hatte glücklicherweise den Link angegeben und auf das deutsche Original verwiesen. Anm. d. Übers.]

Beck war der erste, der die Daten aus dem 19. Jahrhundert detailliert untersucht hat. Die Daten waren gesammelt worden für wissenschaftliche Versuche, präzise die Menge des CO2 in der Atmosphäre zu messen. Es begann im Jahre 1812, ausgelöst durch die Arbeit von Priestly zu atmosphärischem Sauerstoff und war Teil der wissenschaftlichen Bemühungen, alle atmosphärischen Gase zu quantifizieren. Es gab kein unmittelbares politisches Motiv. Beck hat mit den Ergebnissen keine Rosinenpickerei betrieben, sondern er hat das Verfahren untersucht, die genauen Messorte und so viele Details wie möglich für jede Messung. Dies stand in absolutem Kontrast zu dem, was Callendar und Wigley gemacht haben.
Das IPCC musste jetzt beweisen, dass:
● Zunahmen des atmosphärischen CO2-Gehaltes in den historischen Aufzeichnungen eine Erwärmung ausgelöst haben
● die gegenwärtigen Niveaus ungewöhnlich hoch sind im Vergleich zu den historischen Aufzeichnungen
● das gegenwärtige Niveau viel höher ist als in vorindustriellen Zeiten
● die Unterschiede zwischen dem vorindustriellen und dem jetzigen Niveau dem menschlichen CO2-Beitrag in die Atmosphäre geschuldet sind.
Becks Arbeit zeigt die Falschheit dieser Behauptungen, und indem er das getan hat, hat er sich eine große Last aufgeladen.
Nochmals aus meinem Nachruf:
Ernst Georg Beck war ein Gelehrter und Gentleman in jeder Hinsicht. Sein Freund schrieb: „Sie versuchten, Ernst Georg Beck im Internet als ahnungslosen Amateur und Datenfälscher zu denunzieren. Ernst konnte sich dagegen in den letzten Monaten wegen seiner fortschreitenden Krankheit leider kaum noch wehren“.* Seine Arbeit, seine Bestimmung und seine Ethik waren allesamt darauf gerichtet, Fragen in skeptischer Manier zu beantworten, was wirkliche Wissenschaft ist; die Antithese zu den Bemühungen all jener, die ihn herausforderten oder versuchten, ihn mundtot zu machen oder ihn zu verleumden.
[*Auch hier das Originalzitat]
Die CO2-Messungen aus dem 19. Jahrhundert sind nicht genauer als die Messungen der Temperatur: tatsächlich würde ich sagen, dass Beck zeigt, wie gut sie sind. Warum also sind beispielsweise seine Einschätzungen weniger gültig als jene, die zu Anfang der Central England Temperatures (CET) gemacht worden sind? Ich habe mich lange mit Hubert Lamb über die Anfänge dieser CET-Rekonstruktion von Manley unterhalten, weil die Instrumente, Messorte, Messungen Aufzeichnungen und das Wissen der Beobachter vergleichbar waren mit jenen in den Aufzeichnungen der Hudson Bay Company, mit denen ich mich befasst habe.
Als das vorindustrielle Niveau einmal erschaffen worden war, wurde es notwendig sicherzustellen, dass sich der neue nachindustrielle CO2-Trend fortsetzt. Dies wurde erreicht, als C. D. Keeling die Messstation am Mauna Loa eingerichtet hatte. Beck sagt dazu:
Die moderne Treibhaus-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling, die die Linie von S. Arrhenius fortsetzen, was jüngst durch das IPCC popularisiert worden ist.
Keelings Sohn betreibt jetzt die Station am Mauna Loa und, wie Beck anmerkt, besitzt das globale Monopol der Kalibrierung aller CO2-Messungen. Er ist auch Ko-Autor der IPCC-Berichte, die die Werte vom Mauna Loa und alle anderen Messungen als repräsentativ für das globale Niveau akzeptieren. Folglich kontrolliert das IPCC die Zahlen der menschlichen Erzeugung und des atmosphärischen CO2-Niveaus. Beide nehmen konstant und konsistent zu.
Dies lenkt ab von dem realen Problem mit den Messungen und Behauptungen. Die fundamentale IPCC-Prämisse ist es, die menschlichen Gründe der globalen Erwärmung zu benennen. Man kann nur dann den menschlichen Beitrag und Anteil bestimmen, wenn man natürliche Niveaus kennt und wie stark diese variieren, und wir haben nur sehr grobe Schätzungen.

Welche Werte werden für jede Komponente des Kohlenstoff-Zyklus‘ verwendet?

Dr. Dietrich Kölle ist einer der wenigen Wissenschaftler, der Schätzungen natürlicher jährlicher CO2-Emissionen unter die Lupe nimmt. Er kommt zu folgenden Ergebnissen:
Jährliche Kohlendioxid-Emissionen GtC pro Jahr:
1. Atmung (Menschen, Tiere, Phytoplankton) 45 bis 52
2. Ozeanische Ausgasung (tropische Gebiete) 90 bis 100
3. Vulkanische und andere Quellen aus dem Erdboden 0,5 bis 2
4. Bodenbakterien, Verrottung und Verfall 50 bis 60
5. Roden von Wäldern, Waldbrände 1 bis 3
6. Anthropogene Emissionen aus fossilen Treibstoffen (2010) 9,5
Gesamtmenge 196 bis 226,5
Quelle: Dr. Dietrich Kölle
Die IPCC-Schätzung der menschlichen Produktion (6) für das Jahr 2010 betrug 9,5 GtC, aber das ist die Gesamtproduktion. Einer der frühen Dinge in dem Betreiben, das Kyoto-Protokoll zu ratifizieren war ein Versuch, die USA zur Ratifikation zu bewegen. Die USA forderten Kohlenstoff-Zertifikate, vor allem für die Entfernung von CO2 durch Aufforstung, damit eine Gesamtzahl zur Anwendung kommt, die die USA als eine entwickelte Nation einschätzen. Das wurde abgelehnt. Realität ist, dass die Gesamtzahl besser den menschlichen Einfluss repräsentiert. Falls wir die menschliche Gesamtproduktion (6) mit 5 GtC für das Jahr 2010 ansetzen, liegt dies innerhalb der Bandbreite von Schätzungen für drei natürliche Quellen (1), (2) und (4).

Die Wahrheit wird ans Licht kommen

Wie lange wird das IPCC noch damit fortfahren, CO2-Daten zu erzeugen, die zu seiner Hypothese passen, dass die Temperatur weiterhin steigen wird? Wie lange wird es dauern, bis die Öffentlichkeit auf Pamela Grays anschauliche Beobachtung aufmerksam wird, die da lautet: Der allein anthropogene Anteil am atmosphärischen CO2, vor allem der Anteil Chinas, hat nicht die erforderliche Fähigkeit, auch nur ein winziges bisschen „Wetter“ auch nur ein wenig zu verändern. Der nunmehr fast 18 Jahre lange Stillstand und leichte Rückgang der globalen Temperatur ist essentiell unmöglich, wenn man die IPCC-Hypothesen zugrunde legt. Eine Behauptung lautet schon jetzt, dass der Stillstand nicht ihrer Wissenschaft oder ihren Projektionen widerspricht, sondern diese stattdessen anerkennt, zusammen mit falschen Prognosen.
Das IPCC und die EPA haben bereits gezeigt, dass es keine Rolle spielt, unrecht zu haben oder ertappt zu werden. Die Objektive ist die Angst erzeugende Schlagzeile, verstärkt durch die stetige Behauptung, dass es zunehmend schlimmer wird und dass die Zeit davonläuft. Aldous Huxley sagte: Fakten werden nicht dadurch aus der Welt geschafft, dass man sie ignoriert. Wir müssen sicherstellen, dass diese Fakten real sind und nicht ignoriert werden.
[1] Nachdruck mit Erlaubnis von William Kininmonth.
Link: http://wattsupwiththat.com/2014/08/05/co2-data-might-fit-the-ipcc-hypothesis-but-it-doesnt-fit-reality/#more-114086
Übersetzt von Chris Frey EIKE




Reale Klimawissenschaft gewinnt die Wissenschafts-Schlacht, verliert aber den Politik-Krieg

E-Mails, die im Jahre 2009 von der Climatic Research Unit CRU durchgesickert waren, haben die Praktiken der das IPCC kontrollierenden Wissenschaftler enthüllt. Bloßgestellt wurden auch deren Unterstützer und die Gefolgsleute dieses Schwindels. Viele dieser E-Mails waren offenbar harmlose Ereignisse oder Kommentare, aber sie bedurften Erklärungen und Zusammenhänge. Die Kommentare scheinen oft einfach, sagen aber bei längerem Nachdenken sehr viel. Der reiche kanadische Geschäftsmann Conrad Black wurde gefragt, warum er kein Politiker sei. Seine sechs Worte „Das muss ich doch gar nicht“ sprachen Bände.
Im Dezember 2011 schrieb Richard Littlemore, leitender Betreiber der kanadischen Website DeSmogBlog eine E-Mail an Michael Mann mit folgendem Inhalt:
Hi Michael [Mann],
ich bin ein Autor bei DeSmogBlog (Richard Littlemore), und ich versuche, die jüngste Ankündigung  abzuwehren, dass es eine globale Erwärmung im 20. Jahrhundert tatsächlich nicht gegeben hat.
Mir scheint, dass Gerd Burger versucht, die Klimaänderung zu leugnen, indem er die seit den siebziger Jahren gemessenen, tatsächlich flach verlaufenden Temperaturen „geglättet“, „korrigiert“ oder in anderer Weise gerundet hat, aber ich bin dem nicht gewachsen. (Ich bin sicher, dass Sie bemerkt haben: Wir alle sind PR hier und nicht viel Wissenschaft). Also frage ich mich, ob ihr hinsichtlich Burgers Einmischung in die Wissenschaft etwas getan habt oder noch tun werdet.
Diese E-Mail allein diskreditiert effektiv alles, was auf dem DeSmogBlog steht. Sie zeigt auch, dass die Klimawissenschaft, wie sie von der CRU und dem IPCC praktiziert wird, eine PR-Übung war. Der Ausdruck abwehren spricht Bände. Er illustriert, dass es bei der Schlacht um die Gedanken der Menschen ging, kompliziert durch die Tatsache, dass es wie bei Littlemore nicht viel um Wissenschaft geht.
Kunst und Wissenschaft
Ich habe einen Glaubwürdigkeits-Kursus bzgl. Wissenschaft für Kunststudenten seit 25 Jahren abgehalten. Ich weiß, wie wenige etwas über Wissenschaft wissen oder auch nur wissen möchten. Ich habe die Studenten gelehrt, indem ich ihnen sagte, dass es im Grunde darum geht zu verstehen, „wie die Erde funktioniert“, und als zukünftige Erdenbürger sollten sie etwas Verständnis haben, damit sie nicht so leicht ausgebeutet werden können hinsichtlich umweltlicher Themen. Auf jeder Seite umfassenderen Wissens studierte ich die ‚Historie der Wissenschaft‘ und habe häufig Vorlesungen dazu gegeben. Ein Kursus zur Historie der Wissenschaft sollte für alle Studenten verpflichtend sein. Ich füge die empirischen Beweise von hunderten öffentlicher Präsentationen oder Radioprogrammen mit Hörerbeteiligung seit über vierzig Jahren hinzu.
Etwa 25 Prozent der Amerikaner glauben, dass die Sonne die Erde umkreist. In Wirklichkeit spielt das für die meisten Menschen gar keine Rolle. Solange die Sonne aufgeht und ihrem ordnungsgemäßen Kreislauf folgt, hat das keine Konsequenzen. Ein Grund für dieses Desinteresse ist, dass Kopernikus seine Hypothese im Jahre 1543 vorgestellt hat, der Beweis aber erst 295 Jahre später erbracht worden ist, nämlich im Jahre 1838.
Newtons Theorie hat für die Meisten ebenfalls keine Konsequenzen, solange die Schwerkraft funktioniert und niemand abfällt. Noch weniger verstehen Albert Einstein, darunter viele Wissenschaftler. Die große Änderung kam mit Darwin, als Wissenschaft Eingang in die Empfindlichkeit von jedermann fand. In grob vereinfachender Weise argumentierten Gegner von Darwin, dass er sage, unser Großvater sei ein Gorilla gewesen. Das änderte die Akademia von zwei Fakultäten, humanistische und Naturwissenschaften, und fügte die dritte und inzwischen größte Fakultät hinzu, nämlich die Sozialwissenschaften.
Vor vielen Jahren wurde ich von einer Gruppe Wissenschaftler im Ruhestand in Calgary eingeladen, um eine in Opposition zu Kyoto stehende Gruppe zu bilden. Ihre Bedenken richteten sich gegen die unzureichende Wissenschaft hinter der geplanten Politik. Ansässig in Calgary und einige beschäftigt im Bereich Öl, standen sie vor einem Glaubwürdigkeits-Problem. Sie haben sich entschlossen, strikt bei der Wissenschaft zu bleiben – eine Entscheidung, die ich unterstützte. Sie haben ausgezeichnete Arbeit geleistet und Unterstützung erhalten und tun das immer noch, wurden aber schon bald marginalisiert, als eine sehr kleine Zuwendung von einem Ölunternehmen ihre Glaubwürdigkeit unterminierte. Es ist ein klassisches Beispiel der Macht von PR und der Politik über die Wissenschaft. Ein weiterer Beweis war der bemerkenswerte Erfolg von Gores in Hollywood produziertem Film, sind doch dort die Meister der PR-(Propaganda) aktiv.
Wissen der Öffentlichkeit über Klimawissenschaft
Eine Studie der Yale University kam zu alarmierenden Ergebnissen hinsichtlich des Wissensstandes der Öffentlichkeit zum Thema Klimawandel. Abbildung 1 zeigt die aktuellen Ergebnisse mit Zeugnisnoten für die Leute. Nur 8 Prozent bekamen eine Eins oder Zwei, während 77 Prozent eine Vier oder Fünf bekamen*.
[*Das Schulnoten-System in den USA besteht aus den Buchstaben A bis F an Stelle der in Deutschland üblichen Zahlen-Noten. A steht für Eins, F für Sechs ‚flunked = durchgefallen‘. Auch im Original und in der Abbildung stehen diese Buchstaben. Im Text habe ich das deutsche System angeführt, in der Abbildung ging das nicht. Anm. d. Übers.]

Abbildung 1. Quelle: Yale University
Das ist eigentlich alles, was man wissen muss, aber die Forscher waren damit nicht zufrieden. Sie entschlossen sich, weitere Adjustierungen vorzunehmen wegen der Schwierigkeit der Fragen, und zwar mit der Konstruktion einer gebogenen Einschätzungs-Skala als ein alternatives Bewertungssystem.
Für die Einführung einer gebogenen Einschätzungs-Skala gibt es keine Rechtfertigung. Abbildung 2 zeigt das Ergebnis. Jetzt fallen nur noch 27 Prozent durch und 33 Prozent haben eine Eins oder Zwei.
Wie können diese Fragen zu schwierig sein? Diese Adjustierung verurteilt und negiert die gesamte Studie. Einige der Fragen waren schlecht formuliert, und die Analyse war falsch, weil die Autoren nicht wussten, was Klimawissenschaft ist. Wie auch immer, die Ergebnisse sind definitiv und das Problem ist fälschlich hochgespielt durch Fragen, die angeblich schwierig sein sollen. Wer hat festgelegt, dass sie schwierig sind?

Abbildung 2
Ein Cartoon (Abbildung 3, siehe oben rechts!) erschien in der Ausgabe des New Scientist vom 1. September 1977.
Wie viele Menschen würden diesen Witz verstehen? Vielleicht die Wenigen, die den begleitenden Artikel über den Milankovitch-Effekt gelesen haben, aber nicht sehr viele andere. Tatsächlich sind Milankovitch-Effekte in den IPCC-Modellen nicht enthalten.
Wahrscheinlich würden höchstens 20 Prozent das verstehen. Abbildung 4 zeigt die Prozentzahl von Studenten mit wissenschaftlichen Fähigkeiten auf hohem Niveau in vielen Ländern.

Abbildung 4

Abbildung 5
Abbildung 5 zeigt etwas höhere wissenschaftliche Fähigkeiten bei Universitäts-Absolventen (hier) – eine willkürlich ausgewählte Gruppe.
Das Fehlen wissenschaftlicher Fähigkeiten oder der Übung beim Umgang damit erstreckt sich auf viele wichtige Bereiche, zum Beispiel auch auf Anwälte und Politiker. Abbildung 6 zeigt, dass 12 Prozent von Jurastudenten an der University of Michigan auch Abschlüsse in Wissenschaft und Mathematik hatten.

Figure 6.
Das Versagen der Medien
Die Mainstream-Medien sind die Hauptgruppe, die in der Debatte um die globale Erwärmung völlig versagt haben [und natürlich weiter versagen! Anm. d. Übers.]. Sie haben die Rolle des prüfenden, investigativen Journalismus‘, den die US-Gründungsväter von ihnen erwartet hatten, abgeschafft.
Wenige Journalisten haben wissenschaftliches Training und erzeugen zunehmend Sensations-Storys, um sich dem politischen Bias anzupassen – ihrem eigenen und dem ihrer Arbeitgeber. Sie sind jetzt die Klatschmäuler in Marshall McLuhans globalem Dorf. Wie alle Klatschtanten bemühen sie nur wenige Fakten, verbreiten falsche Informationen und erfinden Storys, die kombiniert Leben zerstören. Jonathan Swift, einer der größten Satiriker, sagte einmal: „Was einige einführen, vergrößert der Rest“.
Das IPCC hat absichtlich all diese Schwächen ausgenutzt, um die Menschen in die Irre zu führen. Differenzen zwischen den Wissenschaftlichen Berichten der Arbeitsgruppe I und der Summary for Policymakers sind zu groß, um zufälliger Natur zu sein. Der Betrug begann schon bei der Definition von Klimawandel. Die Medien und die Öffentlichkeit glauben, dass das IPCC den Klimawandel in Gänze studiert. Um die Menschen verantwortlich zu machen, wurde die Definition von Klimawandel in Artikel 1 der UNFCCC stark eingeengt.
„…eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zuzuordnen ist und die die Zusammensetzung der globalen Atmosphäre verändern, und dies zusätzlich zur natürlichen Klimavariabilität, die in beträchtlichen Zeiträumen beobachtet worden ist“.
Nichts wurde getan, um die Menschen von ihrem Missverständnis zu befreien. Tatsächlich wurde dieses Missverständnis weiter bekräftigt durch unrichtige Statements des IPCC:
„Das IPCC ist die führende internationale Einrichtung zur Erforschung des Klimawandels“.
Öffentliche Verwirrung, politische Reaktionen
Eine Umfrage des Pew Centers (Abbildung 7) ist repräsentativ für die öffentliche Meinung und platziert den „Umgang mit der globalen Erwärmung“ sehr weit unten (an 19. Von 20 Stellen) auf der Rangliste der Sorgen.
Dafür gibt es sehr viele Erklärungen, darunter:
•Fehlendes Verständnis
•Verwirrung durch sich widersprechende Beweise
•Allgemeines Misstrauen gegenüber den Regierungen
•Das Gefühl, dass man ohnehin nichts dazu tun kann.
All dies stellt die Politiker vor ein Dilemma. Sie haben immer noch Angst vor Vorwürfen, dass sie sich nicht um den Planeten kümmern, um die Kinder, die Zukunft oder irgendeine andere der emotionalen Bedrohungen, die angeführt werden, um den moralischen Hintergrund zu stehlen. Aus ihrer Perspektive stecken sie in der Zwickmühle zwischen Arbeitsplätzen und der Wirtschaft oder der Umwelt. Das scheint einfach und offensichtlich, aber Umweltschutz als Religion macht es zu einer großen Herausforderung.
Das fängt an mit der Abstimmung im US-Senat über die Ratifizierung des Kyoto-Protokolls. Zwar äußerten die Politiker ihre Bedenken hinsichtlich der Umwelt, wollten aber Arbeitsplätze und die Wirtschaft nicht aufs Spiel setzen.
…der US-Senat stimmte mit 95 zu Null gegen die Unterzeichnung jedweden Vertrages, der „der US-Wirtschaft ernste wirtschaftliche Schäden“ zufügen würde, selbst wenn dies einzig in der Welt sein sollte.

Abbildung 7
Westliche Politiker streiften sich den Deckmantel des Grünen über und blieben bei ihrer Angst davor, irgendetwas außerhalb davon zu diskutieren. Ein vom indischen Premierminister ins Leben gerufenes Gremium näherte sich dem Moral-Problem in unterschiedlicher Weise:
„…der Council of Climate Change des Premierministers sagte, dass Indien seine Bevölkerung eher vor der Armut bewahren würde als vor der globalen Erwärmung, weshalb man nicht das Wachstum beschneiden werde, um Gasemissionen zu verringern.
Es ist offensichtlich, dass Indien seinen Pro-Kopf-Energieverbrauch erhöhen muss, um ein Minimum eines akzeptablen Wohlergehens seiner Bevölkerung sicherzustellen.
Indien ist entschlossen, dass seine Treibhausgas-Emissionen pro Kopf an keiner Stelle den der entwickelten Länder übersteigen wird“.
Die wichtige Verbindung zwischen den beiden Voten ist die Opposition gegen Ungleichheit. Kyoto nahm Geld von entwickelten Ländern wegen ihrer Sünde der CO2-Erzeugung und reichte es weiter an Entwicklungsländer, um diesen zu helfen, mit den negativen Auswirkungen fertig zu werden. Nichts davon, weder die Behauptungen des IPCC noch die Gegenbehauptungen der Skeptiker haben irgendetwas mit Wissenschaft zu tun.
Regierungskontrollen mit dem Vorwand der Klimaänderung nehmen rasant zu
Maurice Strong und die Ersteller der Agenda 21 und das IPCC sind nicht besorgt. Die gesamte Struktur war darauf ausgerichtet, an der Politik und den Bedürfnissen der Menschen vorbeizugehen. Bürokratien implementieren immer schneller die Ziele, die anthropogenes CO2 erzeugenden Aktivitäten zu reduzieren. Der Schlüssel hierzu war die Rolle der Weltwetterorganisation WMO, die Wetterämtern in jedem Land die Verantwortung von Energiepolitik übertrug. Sie fahren fort mit Plänen, das Ziel zu erreichen. Abbildung 8 zeigt das Titelbild eines Klima-Aktionsplanes für die Provinz British Columbia:

Abbildung 8
Ein Klima-Aktionskomitee hat diesen Plan entworfen, wie die Website der Regierung beschreibt:
Das Klima-Aktionsteam in British Columbia wurde im November 2007 gegründet, um der Regierung zu helfen, die Treibhausgasemissionen der Provinz bis zum Jahr 2020 um 33 Prozent zu reduzieren. Dahinter stecken einige der besten Köpfe der Provinz einschließlich neun weltweit führenden Klimawissenschaftlern.
Unter diesen neun befand sich Andrew Weaver, beitragender Autor zum Abschnitt über Computer-Modellierungen in vier IPCC-Berichten (1995, 2001, 2007 und 2013).
Der Plan wird eingeführt durch Besuche der Regierung der Provinz bei Gemeinden. Nach einem solchen Besuch wurde ich von Anwohnern der Mayne Island  (eine der Golf-Inseln) zu einer Präsentation eingeladen. Sie waren erbost, weil der Regierungsbesuch eine Vorstellung des Gore-Films enthielt, gefolgt von Vorschlägen, die Politik und Praktiken auf ihrer Insel zu ändern. Darunter war auch die Diskussion um die Einstellung sämtlicher Fahrten mit Motorfahrzeugen und die Beseitigung von Straßen.

Abbildung 9.
Übersetzung: Was die Regierung von B.C. hier getan hat ist, dass sie erkannt haben, dass dies das Richtige ist, das man tun muss, es ist das Einzige, was man tun kann, um dem Problem zu begegnen, und wir werden nicht warten, bis die [kanadische] Bundesregierung oder irgendwer sonst etwas tut. Wir werden Führung in Nordamerika zeigen, und passen Sie auf: es wird ansteckend sein, und andere werden uns im Laufe der Jahre folgen.
Der Plan basiert ausschließlich auf den Ergebnissen des IPCC. Darunter sind neben anderen Dingen eine Kohlenstoff-Steuer und die Verpflichtung zu Smart Meters. Weaver präsentierte eine Einfügung, die Abbildung 9 zeigt.
Premierminister der Provinz bei der Einführung des Klima-Aktionsplanes war Gordon Campbell. Er wusste, dass Kontrolle und Macht den Bürokratien oblag. In seiner ersten Amtszeit hatte er weit reichende neue Gesetze eingeführt. Er wusste auch um die Lücke zwischen dem, was die Politiker beabsichtigten und dem, was die Bürokraten eingeführt haben, und beauftragte zwei Politiker, die Umsetzung in jedem Department [=Landkreis] zu überwachen. Bürokraten tolerierten dies, war ihnen doch klar, dass sie die Zeit der Politiker überdauern würden.
Maurice Strong hat genau das Gegenteil getan, als er die WMO-Bürokraten ins Boot holte für die Planung, Einführung und Produktion. Er kontrollierte effektiv die Politiker der Welt. Elaine Dewar berichtete in ihrem Buch Cloak of Green, dass es sein Ideal war, industrialisierte Nationen zu eliminieren. Sie fragte, ob er beabsichtige, ein Politiker zu werden, um das Vorhaben umzusetzen. Er antwortete nein, weil man als Politiker gar nichts tun könne; er mochte die UN, weil:
Er konnte seine eigenen Mittel einfordern, von jedem, von dem er sie wollte, und er konnte jeden, den er wollte, mit der Kontrolle der Agenda beauftragen.
Dewar fügte hinzu:
Strong nutzte die UN als Plattform, eine globale Umweltkrise und die Agenda einer Weltregierung auszubreiten.
Wie Strong geplant und Weaver vorhergesagt hatte, traten bald Andere bei. Informationen der EPA, wie Staaten und niedere Regierungsebenen einen Climate Action Plan eingeführt haben, sieht man hier:
Klimaänderungs-Aktionspläne
Erfahren Sie hier, wie Sie einen Klimaänderungs-Aktionsplan für Ihre Gemeinde entwickeln.
Regionaler Klimaänderungs-Aktionsplan
Ein Klimaänderungs-Aktionsplan entwirft eine Strategie einschließlich bestimmter Forderungen an die Politik, die eine lokale Regierung verwenden kann, um der Klimaänderung zu begegnen und die Emission von Treibhausgasen zu reduzieren. Beispiele für von lokalen Regierungen entwickelte Klimaänderungs-Aktionspläne sind unten nach US-Staaten gelistet:
AZ, AK, CA, CO, CT, FL, GA, IL, KY, LA, MD, MA, MN, MO, NH, NM, NY, NC, OR, PA, SC, TN, TX, UT, WA, All States
Grundlage des EPA-Planes ist ausschließlich die Wissenschaft des IPCC, die Skeptiker längst als falsch überführt haben. Die einzige Opposition gegen diesen Plan wird durch verlorene Arbeitsplätze und ökonomische Fehlschläge kommen.

Abbildung 10
Entweder ein britisches Poster wird Volk und Politiker überzeugen, oder das kluge Wortspiel eines Autoaufklebers (Abbildung 10) wird sich als wahr herausstellen.
Link: http://wattsupwiththat.com/2014/07/24/climate-science-winning-the-science-battle-but-losing-the-policy-war/
Übersetzt von Chris Frey EIKE




Korruption akademischer Journale für Profite und Klimaänderungs-Propaganda

Dr. Tim Ball schreibt:
CRU und akademische Veröffentlichung
Jüngste Enthüllungen exzessiver Korruption (hier) des Begutachtungs-Prozesses durch eine Gruppe von Akademikern sind ein weiterer Schlag gegen die akademische Glaubwürdigkeit. Empfehlenswert in dieser geschmacklosen Geschichte war die Reaktion des Herausgebers des Journal of Vibration and Control (JVC), der sofort 60 Artikel zurückgezogen hatte. Aber was passiert, wenn der Herausgeber Teil des Schemas ist, die ordentlichen wissenschaftlichen Checks und Ausgewogenheit zu pervertieren? Wie viele weitere korrumpierte veröffentliche Artikel gibt es? Wie viele davon mit oder ohne Wissen des Herausgebers? Möglicherweise sehr viele, da die Eisberg-Analogie in solchen Fällen fast immer anwendbar ist.
Beispielsweise gab es kürzlich in Nature News einen Artikel über die Kontrolle des wissenschaftlichen Begutachtungs-Prozesses. Das ist eine Ironie, weil Nature, das „internationale wöchentliche Journal der Wissenschaft“, verstörend stark involviert ist im falschen Narrativ und der gesteuerten Botschaften der Wissenschaft um die globale Erwärmung.
Einige Medien sind ganz offen selektiv, was noch beängstigender ist, weil sie offensichtlich glauben, vernünftig zu handeln. Tatsächlich zeigen deren Verlautbarungen, dass sie glauben, es sei ihre Pflicht, die Menschen vor dem zu bewahren, was sie als schädlich ansehen. In dieser Hinsicht verfolgt die British Broadcasting Corporation (BBC) aktiv einen politischen Bias und Zensur, und zwar mit einer Politik, die Skeptiker und deren Ansichten verbannt. Es ist absolut unakzeptabel und widersprüchlich, weil die BBC vom Steuerzahler finanziert wird und sich selbst als eine Quelle vieler unterschiedlicher Ansichten geriert. Es folgt dem alten Witz: falls es zur Revolution kommt, machst du genau das, was man dir sagt.
Die Rolle mancher akademischen Journale bei der Verbreitung von Fehlinformation zu globaler Erwärmung und Klimaänderung ist bedeutend und verstörend. Wir haben viel erfahren über ihre Rolle durch die durchgesickerten Klimagate-E-Mails und das Verhalten einiger Herausgeber. Teil der CRU-Aktivitäten war die Kontrolle von Informationen besonders durch akademische Zeitschriften. Dies wurde nötig gemacht durch den gewählten Schwerpunkt von „Begutachtung“ in einer absichtlichen, aber unaufrichtigen Verkündung, dass sie, die Journale, die Autorität seien. Es wurde ihnen leichter gemacht durch das Arrangieren der gegenseitigen Begutachtung ihrer Artikel, wie der Wegman Report ans Tageslicht gebracht hatte. Sie griffen Herausgeber an, die Material veröffentlicht hatten, das sie nicht mochten, bis hin zu einem Rauswurf (Kündigung). Es ist eine Litanei von Korruption im Begutachtungsprozess, einschließlich des Zuerkennens von Prioritäten, um den Redaktionsschluss für den Eingang in die IPCC-Berichte einzuhalten. Donna Laframboise zufolge hat man sogar redaktionelle Positionen beim Journal of Climate kontrolliert.
Einigen wenigen so genannten Skeptikern war es gelungen, einen begutachteten Artikel in einer Zeitschrift zu veröffentlichen. Michael Mann hat offenbar geglaubt, dass ihnen dies nur gelungen ist durch Übernahme der Kontrolle über den Herausgeber und die Redaktion, eine Taktik, die CRU-Mitarbeitern sehr bekannt ist. Am 11. März 2003 schrieb er an Phil Jones:
„Die Studie von Soon & Baliunas (siehe meinen eigenen Artikel über die Rolle von John Holdren bzgl. dieser Studie) kann nirgendwo durch einen ‚legitimen‘ Begutachtungsprozess gelaufen sein. Es gibt also nur eine Möglichkeit – dass der Begutachtungsprozess an der CRU gekapert worden ist durch ein paar Skeptiker in der Redaktion“.
Er fügte hinzu:
„Dies war die Gefahr, wenn man die Skeptiker immer dafür kritisiert, in der ‚begutachteten Literatur‘ nie etwas veröffentlicht zu haben“.
Eine wichtige Frage lautet, warum einige Journale, besonders die vermeintlich Angesehenen wie Nature, anfällig sind für Zwang und Manipulation. Sieht man dies zusammen mit dem Bias und der Selektivität der Mainstream-Medien (MSM), wird dadurch der Öffentlichkeit ein einseitiges, unausgeglichenes und unwissenschaftliches Bild vermittelt.
Journalisten und Journalismus
Die meisten Journalisten haben zwei Bias’, die ihre Arbeit beeinflussen und begrenzen: keine wissenschaftliche Erfahrung und eine Bestimmung, ihren eigenen institutionellen und persönlichen Bias in der Öffentlichkeit zu verankern. Storys über Klima – und das sind die meisten – fallen der Sensationsgier anheim. Ausgewogenheit und Objektivität sind aus den Medien praktisch verschwunden. Der Slogan von ‚Fox News‘ „fair und ausgewogen“ sollte eigentlich überflüssig sein, wurde aber zu einer stolzen und fast einstimmigen Behauptung, trotz einer Alibipolitik.
Mit der Zeit bemerkte ich eine allgemeine Abfolge in Interviews. Es beginnt gewöhnlich mit einer Frage über meine Meinung hinsichtlich eines Ereignisses. Ist diese nicht sensationell oder kontrovers, änderte sich die Taktik hin zur Konfrontation. Derartige Fragen werden meist eingeleitet mit „nun, der und der hat gesagt…“. Falls ich gesagt hätte, dass ich dieser Person zustimme, wäre diese Story oder zumindest mein Kommentar nie erschienen. Dass sich Sensationen und Konfrontation gut verkaufen, ist nichts Neues, aber warum hat sich ein akademisches Journal dazu hergegeben, aufgegebene Genauigkeit, Integrität, Redlichkeit und Bias-Vermeidung zu „verkaufen“?
Ein Reporter ohne wissenschaftlichen Hintergrund, der aber trotzdem Artikel hauptsächlich über Umwelt und Klima schreibt, erzählte mir, dass eine wichtige Quelle von Themen in Nature veröffentlichte Artikel und Briefe sei. Er suchte nach sensationellen Schlagzeilen und brachte dann einen journalistischen Drall in die Story. Das funktionierte, weil er wusste, dass die Schlagzeile alles war. Sie erregte Aufmerksamkeit, und später erinnerte sich die gesamte Öffentlichkeit daran. Schlagzeilen sind aktive Äußerungen, stehen immer im Präsens und sind definitiv. Unvermeidlich enthält die Story alle Begrenzungen und im Konjunktiv gehaltene Abschnitte aus dem Original, aber die werden übersehen oder schnell vergessen. Alarmisten der globalen Erwärmung beuten diese Situation aus, indem sie Artikel veröffentlichen, einfach um eine Schlagzeile zu erzeugen. Schlagzeilen sind eine Form literarischer markanter Sprüche. Sie sind heute sogar noch wichtiger, weil sie zentrale Schlagworte zur Eingabe in Internet-Suchmaschinen geben.
Die sich ändernde Dynamik professioneller Journale
Professionelle, besonders akademische, Journale sind esoterisch und werden zumeist nur von wenigen Menschen gelesen. In der Presse der Universitäten erscheinen sie gewöhnlich, wobei einige Journale eine Rechnung einfordern, um einen Artikel zu veröffentlichen. Dies hat sich aus vielen Gründen geändert, hauptsächlich jedoch wegen zunehmender Spezialisierung und steigender Kosten. Mehr Spezialisierung bedeutete spezialisiertere Journale und weniger Personen, die Beiträge dazu lieferten oder diese kauften. Abo-Kosten waren hoch, weil der Steuerzahler, nicht der Akademiker über zahlreiche Agenturen zahlte.
Diese Praxis nahm zu, als die Finanzierung von Universitäten in den achtziger Jahren ein wichtiges Anliegen geworden ist. Die Universitäten haben erkannt, dass sie einen höheren Prozentsatz von Forschungsförderung nehmen können, die jedes Fakultäts-Mitglied einbrachte. Journale konnten diese Zahlungen zunehmen lassen, indem sie Institutionen eine viel höhere Rate einräumten; sie wurden für die Herausgeber kommerziell attraktiv.
Am Ende seiner Laufbahn merkte John Daly an, dass der Bias bei der Veröffentlichung von Artikeln über globale Erwärmung bereits 1997 vorherrschend war, als er schrieb:
Die de-la-mar-Studie, vollständig begutachtet und in ‚Nature‘ veröffentlicht, ist ein klassisches Beispiel dafür, wie fragwürdige Wissenschaft ganz einfach durch die derzeitige Denkweise schlüpft, erzeugt durch die Hysterie um die globale Erwärmung, wo normale wissenschaftliche Standards ohne weiteres kompromittiert werden, wenn die Orthodoxie der globalen Erwärmung in Kraft gesetzt wird. Sie repräsentiert auch einen weiteren Fehlschlag hinsichtlich des vielgerühmten Begutachtungsprozesses.
In einem Artikel kommentierte er sarkastisch: Man sagt, dass ein Magazin mit dem Namen ‚Nature‘ ein „Journal der Wissenschaft“ sei. Es ist viel schlimmer, wie die durchgesickerten Klimagate-E-Mails enthüllt haben. Die Probleme von Nature als Geschäft neben dem redaktionellen Bias waren, dass die Öffentlichkeit das Journal nicht gelesen hat und viele, die es hätten lesen können, durch den Preis davon abgehalten wurden.
Übergang von spezialisierten akademischen Veröffentlichungen an den Zeitungskiosk
Nature Publishing Group (NPG) berechnen die Kosten und Begrenztheit des Flaggschiff-Journals auf zwei Wegen. Sie haben den Schwerpunkt zunehmend auf sensationelle Themen verlagert, besonders globale Erwärmung. Sie wurden involviert in populäre Veröffentlichung ab Juni 2007, und zwar mit der Publikation Nature Reports Climate Change, welche ab Mai 2010 zu Nature Climate Change wurde. Die Sensationslust wurde benutzt, um die Auflage zu steigern und das „unter dem Strich“ stehende zu verbessern. Aber der Preis dafür waren verloren gegangene Akkuratesse, Ausgewogenheit, Objektivität und Offenheit.
Die Zeitschrift Scientific American (SA) hatte es sich zur Gewohnheit gemacht, informative Artikel über die wissenschaftliche Forschung zu verfassen. Sie halfen der Öffentlichkeit zum allgemeinen Verständnis, vereinfachten jedoch zu sehr, falls man sich hinsichtlich des Themas auskannte. Mit dem Rückgang der Verkaufszahlen änderten sich die Artikel offenbar von interessant und anspruchsvoll zu sensationell und einseitig bei Kontroversen. (Seit 2010 gibt es darin fünf Artikel von Michael Mann). Im Jahre 2008, offenbar in Verbindung mit Versuchen, bei einer größeren Leserschaft Aufmerksamkeit zu gewinnen, wurde SA unter die Kontrolle von NPG gestellt. Sie haben ihre Propaganda-Rolle im Oktober 2012 ausgeweitet, als die Berichterstattung über Wissenschaft zunehmend politisch und sensationsheischend geworden ist.
,Nature’ und ,Scientific American’ haben sich zusammengetan, um den ersten Bericht zum Status der Weltwissenschaft im Oktober 2012 zu erstellen. Gedacht als jährliche Publikation vom ‚Scientific American‘ geht es in diesem Bericht um den Gedanken, dass das Erlangen von Wissen ein globales Unterfangen ist und darum, wie die Globalisierung die Art und Weise verändert, mit der Wissenschaft betrieben wird und wie sie die Welt informiert.
Willkommen in der Welt der (politischen) Wissenschaft
Idealerweise ist Wissenschaft unpolitisch und amoralisch. Je mehr man sich von diesen Idealen entfernt, umso größer der Verlust an Glaubwürdigkeit und Integrität. Die Ausbreitung des Hypes um die globale Erwärmung war erfolgreich, weil einige Wissenschaftler und Akademiker politisch geworden sind. Die Wissenschaftler haben aus allen möglichen Gründen mitgemacht, darunter finanzielle Förderung, Gelegenheit zu Karrieresprüngen und politische Tendenzen. Die Journale waren involviert, weil angesehene wissenschaftliche Verlage offensichtlich Sensationsgier und politischen Bias höher gestellt haben als Ausgewogenheit und Objektivität. Der Übergang vollzog sich allmählich, so dass nur wenige bemerkt haben, was da vor sich ging.
Glücklicherweise gab es einige Personen und Veröffentlichungen mit Integrität, nicht zuletzt Sonja Böhmer-Christiansen und das Journal Energy and Environment (E and E). Sie veröffentlichten die Analyse von McIntyre und McKitrick zum infamen Hockeyschläger und haben so den Zorn der CRU-Bande auf sich gezogen, die von den meisten akademischen Journalen unterstützt worden war.
So unerfreulich das auch ist, es gibt nur wenige größere Ehrungen als das Ziel von Attacken zu sein. Piloten der Luftwaffe wussten, dass sie über dem Ziel waren, wenn das Flak-Feuer besonders heftig wurde. Paul Thacker schrieb im Jahre 1995 zynisch: „Wenn die Manuskripte von Skeptikern der Klimaänderung durch begutachtete wissenschaftliche Journale abgelehnt werden, können sie ihre Studien immer bei Energy and Environment einreichen“. Außerdem zitiert er Sonja Böhmer-Christiansen mit den  Worten: „Es sind nur wir Klimaskeptiker, die nach kleinen Journalen suchen müssen, und kleine Verleger wie ich, die sogar ihre Artikel veröffentlichen“.
Es ist eine traurige Geschichte, dass viel zu vielen akademischen Mainstream-Verlagen wie Nature eine derartige Integrität fehlt.
Link: http://wattsupwiththat.com/2014/07/12/corruption-of-academic-journals-for-profit-and-climate-change-propaganda/
Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Standardabweichung, das übersehene, aber essentielle Klima-Statistikum

Es ist wichtig, die Isolation der Paläoklima-Gemeinschaft zu unterstreichen; selbst wenn sie sich stark auf statistische Methoden stützen, die sie anscheinend nicht mit der Gemeinschaft der Statistiker abgesprochen haben.
Offensichtlich wussten sie, dass ihr Gebrauch und Missbrauch von Statistik und statistischen Methoden niemals untersucht werden würde. Das galt für den „Hockeyschläger“, einem Beispiel von falscher Anwendung und für die Erzeugung ‚einheitlicher‘ statistischer Methoden, um das Ergebnis vorweg zu bestimmen. Unglücklicherweise ist diese Gefahr in der Statistik inhärent. Ein Statistik-Professor sagte mir: je ausgeklügelter eine statistische Methode ist, umso schwächer sind die Daten. Alles jenseits grundlegender statistischer Methoden ‚unterminierte‘ die Daten und entfernte sich immer weiter von der Realität und einer vernünftigen Analyse. In der Klimatologie ist dies wegen unzureichender Daten unvermeidlich. Im Bericht des US National Research Council vom 3. Februar 1999 heißt es:
„Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen begrenzen ernstlich das Vertrauen in die Forschungsergebnisse“.
Methods in Climatology von Victor Conrad ist ein klassisches Lehrbuch, das die meisten der grundlegenden Dinge in der Klimaanalyse anspricht. Seine Stärke liegt in der Erkenntnis, dass  die Menge und Qualität der Daten kritisch ist. Dieses Thema war für Hubert Lamb zentral, als er die Climate Research Unit (CRU) ins Leben gerufen hatte. Meiner Ansicht nach hat sich die Statistik, so wie sie hinsichtlich des Klimas angewendet wird, seitdem kaum weiterentwickelt. Es stimmt zwar, dass wir inzwischen über andere Methoden verfügen wie die Spektralanalyse, aber alle diese Methoden sind bedeutungslos, wenn man nicht akzeptiert, dass es Zyklen gibt oder dass man Aufzeichnungen hinreichender Qualität und zeitlicher Länge braucht.
Ironischerweise entfernen einige Methoden Daten, wie z. B. gleitende Mittel. Eisbohrkern-Aufzeichnungen sind ein gutes Beispiel. Die antarktischen Aufzeichnungen aus Eisbohrkernen, zum ersten Mal im Jahre 1990 gezeigt, illustrieren die Mahnung des Statistikers William Briggs:
Jetzt werde ich Ihnen die große Wahrheit über Analysen von Zeitreihen verkünden. Sind Sie bereit? Solange die Daten nicht mit Fehlern gemessen werden, darf man die Zeitreihe niemals, jemals, unter keinen Umständen und auf keinen Fall GLÄTTEN! Und wenn man dies aus irgendwelchen bizarren Gründen doch tut, werden Sie diese geglättete Reihe absolut NIE als Input für andere Analysen benutzen! Werden die Daten mit Fehlern gemessen, kann man versuchen, diese zu modellieren (das heißt zu glätten), und zwar in einem Versuch, den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine von außen kommende Abschätzung jenes Fehlers haben, das heißt eine, die nicht Ihre gegenwärtigen Daten zur Grundlage hat (Fettdruck von ihm).
Die Aufzeichnungen der antarktischen Eisbohrkerne hat man mit einer über 70 Jahre gehenden Glättung versehen. Dies eliminiert einen großen Teil dessen, was Briggs „reale Daten“ nennt, im Gegensatz zu „fiktiven Daten“, die die Glättung hervorbringt. Die Glättung verkleinert eine wesentliche Komponente grundlegender Statistik, nämlich die Standardabweichung der Rohdaten. Dies ist teilweise der Grund, warum diese in den Klimastudien so wenig Aufmerksamkeit erfahren hat, obwohl sie ein kritischer Faktor hinsichtlich des Einflusses von Wetter und Klima auf Flora und Fauna ist. Die Konzentration auf Mittelwerte und Trends war ebenfalls dafür verantwortlich. Noch wichtiger aus wissenschaftlicher Perspektive ist deren Wichtigkeit zur Berechnung von Mechanismen.

Abbildung (Beschreibung teils aus dem Original): Rekonstruierte CO2-Konzentrationen für das Zeitintervall zwischen etwa 8700 und 6800 Kalenderjahren vor heute, basierend auf CO2, das aus Luftbläschen des antarktischen Eises an der Stelle Taylor Dome extrahiert worden ist (linke Kurve; ref.2; Rohdaten erhältlich bei www.ngdc.noaa.gov/paleo/taylor/taylor.html) und SI-Daten für fossile B. pendula und B. pubescens [?] aus dem Lille Gribso-See in Dänemark. Die Pfeile kennzeichnen accelerator mass spectrometry 14C–Chronologien, die für zeitweilige Kontrollen verwendet wurden. Das schattierte Zeitintervall markiert das Abkühlungsereignis von 8200 Jahren vor heute.
Quelle: Proc. Natl. Acad. Sci. USA 2002 September 17: 99 (19) 12011 -12014.
Die Abbildung zeigt eine Bestimmung des atmosphärischen CO2-Gehaltes in einem Zeitraum von 2000 Jahren, wobei geglättete Daten aus einem Eisbohrkern (links) und aus Stomata (rechts) verglichen werden. Unabhängig von der Wirksamkeit jeder Methode der Datengewinnung ist es nicht schwierig zu bestimmen, welcher Plot wahrscheinlich die meisten Informationen über die Mechanismen vermittelt. Wo ist das Abkühlungsereignis vor 8200 Jahren in der Kurve des Eisbohrkerns?
Zu Beginn des 20. Jahrhunderts wandte man Statistik auf die Gesellschaft an. Universitäten, ursprünglich geteilt in Natur- und Geisteswissenschaften, sahen eine neue und ultimativ größere Disziplin heraufdämmern, die Sozialwissenschaften. Viele im Bereich der Naturwissenschaften sehen die Sozialwissenschaft als einen Widerspruch in sich und nicht als ‚wirkliche‘ Wissenschaft. Um die Bezeichnung zu rechtfertigen, begann man in den Sozialwissenschaften, deren Forschungen statistisch zu untermauern. Ein Buch mit dem Titel  „Statistical Packages for the Social Sciences”  (SPSS) erschien erstmals im Jahre 1970 und wurde zum Handbuch für Studenten und Forscher. Man gebe ein paar Zahlen ein, und das Programm liefert Ergebnisse. Die Brauchbarkeit der Daten, wie der Unterschied zwischen kontinuierlichen und diskreten Zahlen, sowie die Methode waren wenig bekannt oder sind ignoriert worden, obwohl die Ergebnisse beeinflusst worden sind.
Die Meisten kennen den Kommentar von Disraeli: Es gibt drei Arten Lügen: Lügen, verdammte Lügen und Statistik“, aber nur Wenige verstehen, wie sehr die Anwendung von Statistik ihr Leben beeinflusst. Jenseits der ungenauen Anwendung von Statistiken liegt das Entfernen von allem jenseits der Standardabweichung, was die Dynamik der Gesellschaft beseitigt. Macdonald verkörpert die Anwendung von Statistiken – sie haben die Mittelmäßigkeit perfektioniert. Wir fühlen, wenn alles zu jedem passt, aber nie genau zu jedem einzelnen passt.
Klimastatistik
Klima ist ein Mittel des Wetters über einen bestimmten Zeitraum oder einem Gebiet, und bis zu den sechziger Jahren waren Mittelwerte effektiv die einzige entwickelte Statistik. Antike Griechen benutzten mittlere Bedingungen, um drei globale Klimaregionen zu bestimmen: die heißen, gemäßigten und kalten Zonen, erzeugt vom Winkel zum Sonnenstand. Klimaforschung enthält die Berechnung und Veröffentlichung mittlerer Bedingungen an individuellen Stationen oder Gebieten. Nur wenige verstehen, wie bedeutungslos eine Messung ist, obwohl schon Robert Heinlein schrieb: „Klima ist das, was man erwartet, und Wetter ist das, was man bekommt“. Auch Mark Twain war sich dessen bewusst, bemerkte er doch: „Klima ist immer, Wetter nur ein paar Tage“. Ein Landwirt befragte mich hinsichtlich der Wahrscheinlichkeit eines normalen Sommers. Er ärgerte sich über die Antwort „nahe Null“, weil er nicht verstanden hat, dass ‚Mittel‘ Statistik ist. Eine informativere Frage ist, ob es kälter oder wärmer als normal sein wird, aber dazu braucht man Kenntnis über zwei andere wesentliche statistische Parameter, nämlich Variation und Trend.
Nach dem Zweiten Weltkrieg kamen Planungen und Sozialforschung auf, als die Nachkriegs-Gesellschaften Entwicklungen einer einfachen Trendanalyse ausgelöst hatten. Man nahm an, dass ein darin erscheinender Trend immer so weiterlaufen würde. Die Mentalität hatte Bestand trotz offensichtlicher Auf- und Abschwünge; hinsichtlich des Klimas scheint es Teil der Zurückweisung von Zyklen zu sein.
Studien zu Klimatrends begannen im Wesentlichen in den siebziger Jahren mit der Vorhersage einer kommenden Mini-Eiszeit, hatten doch die Temperaturen bis dahin seit 1940 abgenommen. Als Mitte der achtziger Jahre die Temperaturen wieder stiegen, hieß es, dass sich dieser Trend ohne Abschwächung fortsetzen würde. Politische User des Klimas übernahmen etwas, das ich den Trend-Waggon nenne. Das IPCC machte den Trend unabwendbar mit der Aussage, dass das menschliche CO2 dafür der Grund war und dass CO2 immer weiter zunehmen werde, solange die industrielle Revolution noch andauert. Wie auch alle Trends zuvor hatte auch dieser Trend keinen Bestand, zeigte sich doch nach 1998 bei den Temperaturen ein Abwärtstrend.
Für das Leben und die Wirtschaft ist die Variabilität von Jahr zu Jahr wichtig. Landwirte wissen, dass die Arbeit des nächsten Jahres nicht auf der Grundlage des Wetters im vorigen Jahr geplant werden kann, aber eine reduzierte Variabilität reduziert das Risiko merklich. Die jüngste Änderung der Variabilität ist normal und durch bekannte Mechanismen erklärt, wird aber von denjenigen mit einer politischen Agenda als anomal hingestellt.
John Holdren, der Wissenschafts-Zar von Obama, nutzte die Autorität des Weißen Hauses, um die zunehmende Variation des Wetters und eines Mechanismus‘ auszuschlachten, der den meisten Wissenschaftlern, geschweige denn der Öffentlichkeit unbekannt ist, nämlich den Polarwirbel [the circumpolar vortex]. Er erzeugte eine ungenaue Propaganda-Veröffentlichung über den Polarwirbel, um zu implizieren, dass dieser etwas völlig Neues und unnatürliches sei und daher den Menschen zuzuordnen ist. Zwei der drei von den antiken Griechen festgelegten Klimazonen sind sehr stabil, nämlich die Tropen und die Polargebiete. Die gemäßigte Zone weist infolge jahreszeitlicher Veränderungen die größte kurzfristige Variabilität auf. Es gibt dort aber auch eine längerfristige Variabilität, weil der Polarwirbel zyklisch zonal und meridional hin und her schwingt. Letzteres führt zu einer zunehmenden Variation der Wetter-Statistik, wie es auch jüngst der Fall war.  
Das Scheitern der IPCC-Studien und –Vorhersagen war unvermeidlich, weil ihm Daten fehlen und Daten fabriziert wurden, weil Kenntnisse über Mechanismen fehlen und bekannte Mechanismen ausgeschlossen worden sind. Reduktion oder Entfernung der Standardabweichung führte zu Informationsverlusten und einer weiteren Verzerrung der natürlichen Wetter- und Klimavariabilität, die beide weiterhin innerhalb historischer und natürlicher Normen ablaufen.
Link: http://wattsupwiththat.com/2014/06/15/standard-deviation-the-overlooked-but-essential-climate-statistic/
Übersetzt von Chris Frey EIKE