Wissenschaftlicher Betrug grassiert: Es ist an der Zeit, für gute Wissenschaft zu demonstrieren

Bild rechts: Wissenschaftliche Begutachtung erfolgt hinter verschlossenen Türen, mit anonymen Gutachten, die nur von Herausgebern und Autoren eingesehen werden können. Das bedeutet, dass wir keine Ahnung davon haben, wie effektiv die Begutachtung ist. Photo: Alamy
Die Wissenschaft ist zerstört. Die Psychologie wurde kürzlich durch Geschichten über von Akademikern erfundene Daten erschüttert, die manchmal ganze Karrieren überschatten. Und das ist nicht die einzige Disziplin mit Problemen – der  gegenwärtige Rekord betrügerischer Studien wird von Yoshitaka Fujii mit 172 frisierten Artikeln gehalten.
Diese Skandale rücken tiefere kulturelle Probleme der Akademien ins Rampenlicht. Der Druck, möglichst viele Veröffentlichungen hoher Qualität zu erzeugen, fördert nicht nur extreme Verhaltensweisen, sondern normalisiert auch die kleinen Dinge wie die selektive Veröffentlichung positiver Ergebnisse – was zu „nicht-signifikanten“, aber möglicherweise wahren Ergebnissen führt, die unveröffentlicht in irgendwelchen Regalen schmoren sowie zum Fehlen von Nachfolgestudien.
Warum ist das wichtig? Bei der Wissenschaft geht es darum, unser kollektives Wissen zu erweitern, und es passiert schrittweise. Erfolgreiche Generationen von Wissenschaftlern bauen auf theoretische Grundlagen, die von ihren Vorgängern erarbeitet worden waren. Wenn diese Grundlagen jedoch auf Sand gebaut sind, ist es Zeit- und Geldverschwendung, Ansätze zu verfolgen, die einfach nicht stimmen.
Eine aktuellen Studie im Journal Proceedings of the National Academy of Sciences zeigt, dass seit 1973 fast 1000 biomedizinische Studien zurückgezogen worden waren, weil irgendjemand im System geschummelt hat. Das sind massive 67% aller biomedizinischen Studien. Und es wird schlimmer – im vorigen Jahr hat Nature berichtet, dass der Anstieg der Rate zurückgezogener Studien die Anzahl der veröffentlichten Studien überstiegen hat.
Dies ist so, weil die gesamte Art und Weise, in der wir mit Wissenschaft umgehen hinsichtlich Förderung, Forschung und Veröffentlichung falsch ist. Chris Chambers und Petroc Sumner zufolge sind die Gründe dafür zahlreich und stehen miteinander in Wechselwirkung:
• Der Druck, in „höchst einflussreichen” Journalen etwas veröffentlichen zu müssen, und zwar auf jedem Niveau der Forschungskarriere;
• Universitäten behandeln erfolgreiche Anträge auf Förderung als Dinge, von denen weiter gehende Karrieren abhängen;
• Statistische Analysen sind schwierig, und manchmal liegen die Forscher falsch;
• Journale bevorzugen positive Ergebnisse gegenüber keinen Ergebnissen, obwohl keine Ergebnisse einer gut durchgeführten Studie ein genauso gutes Ergebnis sein können;
• Die Art und Weise, mir der Artikel unterstützt werden, ist inkonsistent und geheimnisvoll; sie erlaubt es statistischen Fehlern durchzuschlüpfen.
Probleme gibt es im System auf jeder Ebene, und wir müssen damit aufhören, stur zu argumentieren, „so schlimm ist es nicht“ oder darüber zu reden, dass das Reden darüber irgendwie die Wissenschaft beschädigt. Der Schaden ist bereits angerichtet – und jetzt müssen wir anfangen, ihn zu reparieren.
Chambers und Sumner argumentieren, dass die Wiederholung kritisch dafür ist, die Wissenschaft ehrlich zu halten, und da haben sie recht. Wiederholung ist ein großartiger Weg, um die Ergebnisse einer Studie zu verifizieren, und deren weit verbreitete Übernahme würde mit der Zeit als Abschreckung fragwürdiger Praktiken dienen. Die Natur der Statistik bedeutet, dass positive Ergebnisse manchmal zufällig gefunden werden, und wenn die Wiederholung nicht veröffentlicht wird, können wir nicht sicher sein, dass das Ergebnis nicht einfach nur eine statistische Anomalie war.
Aber Wiederholung reicht nicht: wir müssen auf jeder Ebene des Systems praktische Änderungen beschließen. Der wissenschaftliche Prozess muss gegenüber genauen Prüfungen so offen wie möglich sein – das bedeutet, dass man die Vorab-Registration von Studien ermutigen muss, um ungeeignete statistische Tests im Nachhinein abzuwehren, um Daten zu archivieren und online zu stellen, damit andere sie später genau untersuchen können, und um Anreize für diese Praktiken zu schaffen (wie zum Beispiel eine garantierte Veröffentlichung, unabhängig von den Ergebnissen).
Der Begutachtungsprozess muss überholt werden. Gegenwärtig findet er hinter verschlossenen Türen statt, mit anonymen Gutachten, die nur die Herausgeber der Magazine und die Autoren der Manuskripte zu Gesicht bekommen. Das heißt, dass wir nie wirklich wissen, wie effektiv die Begutachtung ist – obwohl wir wissen, wie einfach man damit Spielchen treiben kann. Extreme Beispiele von fälschenden Begutachtern, gefälschten Artikeln in Zeitschriften und sogar gefälschte Journale wurden schon entdeckt.
Immer öfter werden minderwertige Wissenschaft und fragwürdige Statistiken zur Veröffentlichung angenommen, und zwar von Begutachtern mit einem ungenügenden Niveau von Erfahrungen. Die wissenschaftliche Begutachtung muss transparenter werden. Journale wie Frontiers verwenden schon jetzt ein interaktives Format der Begutachtung, bei dem Begutachter und Autoren in Echtzeit auf einer forumartigen Veranstaltung diskutieren.
Ein einfacher nächster Schritt wäre es, das System für jeden offen und einsehbar zu machen, während die Begutachter selbst ihre Anonymität behalten. Dies würde es jungen Forschern erlauben, sich über eine Studie eines etablierten Wissenschaftlers kritisch zu äußern, ohne dass er damit gleich seine Karriere zerstört.
Am 12. November werden wir eine Sitzung zu den Irrwegen der Wissenschaft am SpotOn London abhalten, die Konferenz von Nature über alles von Wissenschaft online.
Das Ziel der Sitzung ist es, praktische Lösungen für diese Probleme zu finden, denen die Wissenschaft gegenüber steht. Teilnehmen werden wissenschaftliche Forscher, Journalisten und Herausgeber von Zeitschriften. Wir haben hier einige Vorschläge gemacht, aber wir wollen noch mehr Vorschläge von Ihnen hören. Was würden Sie gern besprochen sehen? Gibt es irgendwelche Ideen, Gedanken oder Lösungen?
Wir werden die besten Standpunkte sammeln und sie auf der Konferenz bekannt machen, also äußern Sie sich jetzt! Hören wir auf, unsere Köpfe in den Sand zu stecken, und lassen Sie uns für gute Wissenschaft eintreten.
Pete Etchells is a biological psychologist and Suzi Gage is a translational epidemiology PhD student. Both are at the University of Bristol
Link: http://www.guardian.co.uk/science/blog/2012/nov/02/scientific-fraud-good-science?cat=science&type=article
Übersetzt von Chris Frei EIKE
Anmerkung des Übersetzers: In diesem Beitrag geht es nicht um Klima, sondern um Wissenschaft allgemein. Das Wort ‚Klima’ taucht hier nicht ein einziges Mal auf. Dennoch dürfte ziemlich klar sein, warum ich der EIKE-Redaktion diesen Text zur Übersetzung und der Veröffentlichung bei EIKE vorgeschlagen habe.
Und ob man in unseren Medien je etwas von dieser Sitzung hören wird, wage ich zu bezweifeln.
C. F.




Bruchlandung beim Emissionshandel: Isolierte EU wirft das Handtuch!

Im internationalen Streit um den Emissionshandel für die Luftfahrt hat die EU-Kommission vorgeschlagen, die Erhebung der Abgabe bis zum Herbst des Jahres 2013 auszusetzen. Sollte die internationale Luftfahrtorganisation ICAO bis November nächsten Jahres keine Regelung finden, werde die CO2-Abgabe aber wieder eingeführt, sagte EU-Klimakommissarin Connie Hedegaard. Die EU-Staaten müssten dem Vorschlag der Kommission noch zustimmen. Vor allem China, die USA, Indien und Russland lehnen die Beteiligung ihrer Fluggesellschaften am Handel mit CO2-Verschmutzungsrechten ab. Die europäische Luftfahrtindustrie befürchtet wegen des Streits Nachteile im internationalen Wettbewerb. In einem gemeinsamen Brief an Bundeskanzlerin Angela Merkel und andere Regierungschefs im März nannten sie die Situation “unhaltbar”. Tausende Arbeitsplätze seien in Gefahr, warnten Airbus, Lufthansa, British Airways, Air France und fünf weitere Konzerne.
Mit Dank an Benny Peiser auf ACHGUT




Energiekrise der OPEC: Die Welt hat zu viel Öl

In ihrer jährlichen Vorhersage zum Weltölverbrauch hat die OPEC ihre Vorhersagen des Bedarfs bis zum Jahr 2016 wegen der wirtschaftlichen Schwierigkeiten verringert und gleichzeitig die Vorhersage der Ölmenge erhöht, die aus anderen als den 12 Mitgliedsstaaten kommt.
„Angesichts der signifikanten Zunahme von Schieferöl und –gas ist inzwischen klar, dass diese Ressourcen mittel- und langfristig eine zunehmend wichtige Rolle in der Versorgung aus Nicht-OPEC-Ländern spielen können, und zwar mittel- und langfristig“, heißt es in dem Bericht.
Die OPEC hat später als andere erkannt, welchen Einfluss neue Technologien wie das Fracking auf die Versorgung haben können. Der Direktor von Conoco Ryan Lance ist so weit gegangen vorherzusagen, dass Nordamerika bis zum Jahr 2025 bei der Öl- und Gasversorgung autark werden könnte.
Der neuen Vorhersage der OPEC zufolge wird Schieferöl etwa 2 Millionen Barrel pro Tag (bpd) bis zum Jahr 2020 und 3 Millionen bpd bis zum Jahr 2035 beitragen. Zum Vergleich, 2 Millionen bpd entspricht etwa der derzeitigen Ausfuhr des Mitgliedlandes Nigeria, dem Spitzenexporteur in Afrika.
Beim Fracking werden mit Chemikalien versetztes Wasser und Sand in ein Bohrloch gepumpt, um Spalte zu öffnen, aus denen Öl und Gas entweichen können. Die Technologie hat die Aussichten hinsichtlich der Erzeugung in Nordamerika verändert, jedoch Kritik von Umweltaktivisten auf sich gezogen, obwohl die Industrie versichert, dass Fracking sicher ist, solange nur sorgfältig vorgegangen wird.
Die OPEC sagte, dass Schieferöl auch mittelfristig nur aus Nordamerika kommen werde, aber andere Teile der Welt könnten längerfristig „moderate Beiträge“ leisten.
Frühere Ausgaben des Berichtes sahen keine signifikante zusätzliche Versorgung durch Schieferöl. Erst im Juni hat der Ölminister von Venezuela seine Ansichten dazu beim letzten Treffen der OPEC in Wien heruntergespielt.
Sorgen der EUROZONE
Allerdings zeigt der neue Bericht auch die Erwartung, dass die Welt weniger Öl von den OPEC-Mitgliedern braucht, die mehr als ein Drittel des Weltöls fördern und etwa 80% der Welt-Rohölreserven halten.
Dies ist hauptsächlich auf die Aussichten einer verringerten Nachfrage zurückzuführen, was unmittelbare Sorgen über die Stärke des wirtschaftlichen Wachstums in der Eurozone und längerfristig höherer Ölpreise spiegelt.
Der OPEC-Vorhersage zufolge wird sich der Ölbedarf der Welt bis zum Jahr 2016 auf 92,9 bpd erhöhen, eine Menge, die um über 1 Million niedriger liegt als im vorigen Bericht. Bis zum Jahr 2035 soll der Bedarf über 107,3 Millionen bpd steigen, mehr als 2 Millionen weniger als zuvor gedacht. Die Nachfrage im Jahr 2011 betrug 87,8 bpd.
Teilweise wegen höherer Mengen von Schieferöl wird erwartet, dass die Versorgung aus Nicht-OPEC-Ländern bis zum Jahr 2016 auf 56,6 Millionen bpd steigen wird, das wären 4,2 Millionen mehr als im Jahr 2011.
Als Folge erwartet die OPEC eine Nachfrage nach ihrem Öl im Mittel von 29,7 Millionen bpd im Jahr 2016, weniger als das, was gegenwärtig erzeugt wird. Die erforderliche Rohölmenge von der OPEC wird bis 2015 1,6 Millionen bpd weniger betragen als im vorigen Jahr erwartet.
„Diese Herabstufung, zusammen mit aktualisierten Schätzungen der mittelfristigen Produktionskapazität in der OPEC impliziert, dass die Vorratskapazität an Rohöl über 5 Millionen bpd steigen wird, und zwar schon 2013/2014“, sagte die OPEC.
Die OPEC nimmt an, dass die bevorzugte Höhe der Ölpreise OPEC-B-D mittelfristig etwa 100 Dollar pro Barrel betragen wird, verglichen mit der Prognose des Vorjahres von 85 bis 95 Dollar während dieses Jahrzehnts. Sie sieht Preissteigerungen mit Inflation auf 120 Dollar bis 2025 und bis 155 Dollar bis 2035, verglichen mit dem derzeitigen preis von 107 Dollar.
„Die Aussichten für die langfristige Nachfrage werden nicht nur durch die Herabstufungen mittelfristig, sondern auch durch höhere Ölpreise beeinflusst“, hieß es in dem Bericht (herausgegeben von David Stamp).
Alex Lawler
Links: http://www.thegwpf.org/opecs-energy-crisis-world-oil/
http://www.reuters.com/article/2012/11/08/opec-oil-idUSL9E8GF05720121108
Übersetzt von Chris Frey EIKE
Man sehe auch hier:
http://www.achgut.com/dadgdx/index.php/dadgd/article/waschechte_energiewende_usa_werden_zum_groessten_oelproduzenten_der_welt/

Genug Energie für die nächsten 1000 Jahre

Die ‘Energiekrise’ existiert nur in den Köpfen dummer Politiker und kluger Subventionshaie

Öl und Gas – Die USA werden zum Selbstversorger

Der Energiemarkt vor einer Zeitenwende. Die USA steigen bis 2025 zum größten Öl- und Gasproduzenten der Welt auf. Und ein weiteres Land steht als Lieferant vor dem Durchbruch




Warum gab es eigentlich nie eine wirkliche Diskussion über Klimawissenschaft?

Das einzige Medium, in dem über diese Dinge geredet wird, ist das Internet, einfach weil den Skeptikern kein anderes Medium zur Verfügung steht. Darum haben sie dieses Medium schon früh für sich gefunden. Das verschaffte ihnen mit Sicherheit den Vorteil des sich zuerst Bewegenden, aber als Reaktion darauf erzeugten die Klimaalarmisten eine Anzahl von sehr gut finanziell unterstützen Sites, um ihre Botschaft voranzubringen. Deren Anklickzahlen sind jedoch seit den berauschenden Tagen der Kopenhagen-Euphorie wie Steine gefallen. Allerdings ist dies immer noch keine Debatte zwischen den zwei Standpunkten, obwohl die Wissenschaft auf jeder der beiden Seiten intern diskutiert wird.
Der Charakter der Sites beider Seiten spricht auch gegen jede wissenschaftliche Diskussion. Die populären Sites der Skeptiker konzentrieren sich auf die Wissenschaft, während die alarmistischen Sites hauptsächlich als Startrampen für Propaganda-Initiativen genutzt werden.
Angesichts der weltweit entstandenen Hysterie über die globale Erwärmung waren die Politiker gedrängt, etwas zu tun. Politische Führer, die wie das gesamte Management mit etwas konfrontiert werden, was wie eine technische Maschine aussieht, von der man keine Ahnung hat, übernehmen diesbezüglich Ratschläge von Experten und richten sich nach dem ihrer Ansicht nach orthodoxen Standpunkt. Der Punkt hier ist, dass ihnen nur immer gesagt wurde, dass sich die Wissenschaft hier einig ist und dass es keine abweichenden Stimmen gebe. Offensichtlich war sie das nicht, und es gibt abweichende Stimmen. Aus einer ganzen Reihe von Gründen ziehen sie jetzt Vorteile aus dieser „seit Neuem entdeckten“ Unsicherheit, um vorherige umweltliche Verpflichtungen zurückzufahren.
Die Frage lautet, warum das Establishment der Klimawissenschaft immer noch an „die Wissenschaft ist sich einig“ klebt und eine wissenschaftliche Debatte mit den Skeptikern ablehnt. Während ich nicht für alle Skeptiker sprechen kann, scheint es mir so, als ob es deren vorwiegende Meinung ist, dass die Alarmisten fürchten, eine hochklassige Diskussion zu verlieren. In dieser Ansicht steckt sehr viel Wahres, aber wenn man die Motivation politischer Aktivisten einmal außen vor lässt, die mit Sicherheit einige prominente Klimawissenschaftler antreibt, glaube ich, dass die Gründe noch tiefer liegen.
Es geht darum, in einer Lüge gefangen zu sein, die massiv völlig außer Kontrolle geraten ist, und darum, zu einem Konsens kommen zu müssen.
Kehrt man die Reihenfolge dieser beiden Phänomene um, beginnt die Konformität früh im Leben und zuerst bei der Ausbildung. Im Großen und Ganzen ist eine formelle Ausbildung eine gute Sache. Auf simplizistischem Niveau füllt sie hungrige junge Geister mit Fakten und vermittelt ihnen einige Stärken. Sehr viel hängt vom Talent derjenigen ab, die mit der Ausbildung der jungen Menschen betraut sind. Die meisten machen diese Arbeit mittelmäßig, einige sind schrecklich, und einige schauen immer wieder zurück und erinnern sich daran, welche spezielle Art von Hingabe wir für einen guten Lehrer haben. Es sind jene guten Lehrer, die Fakten in Wissen verwandeln; sie lehren, wie man nachdenkt und wie man Fakten gebraucht, auf die man in einer Gedankenkette bauen kann.
Allerdings gibt es einige Kehrseiten der Ausbildung, und die sind ziemlich subtil.
Betrachtet man die Anzahl [der Studenten], mit denen es ein Ausbilder zu tun hat, [steht er vor der schwierigen Aufgabe], es allen recht machen zu müssen. Wenn man während eines Tages durch viele gefüllte Klassenräume streift, hat ein Lehrer nicht viel Zeit, auf individuelle Erforderlichkeiten einzugehen. Kinder reagieren positiv auf einen Einzelunterricht. Das ist der Grund, warum die zu hause Ausgebildeten akademisch so gut dastehen, aber ich glaube, dass ihnen vielleicht viele soziale Aspekte des Zusammenlebens außerhalb des Klassenzimmers fehlen. Diese der Notwendigkeit gehorchende Weise, die Jungen zu lehren, verschafft der Mehrheit der Schüler die grundlegenden Mittel, die sie als Erwachsene brauchen, aber diejenigen, denen das gewöhnlich fehlt, sind das, was man heutzutage die Kinder nennt, die besondere Zuwendung brauchen. Meiner Ansicht nach umfasst diese Phrase nicht nur diejenigen, die immer ein wenig hinterher hinken, sondern gelegentlich auch die Denker, die mit einem wirklich guten Verstand gesegnet sind.
Es bedarf eines ziemlich exzentrischen Verstands, sich gegen Tausende Jahre vorgegebenen Wissens zu wenden, dass ein Apfel nicht deswegen zu Boden fällt, weil er ein Gewicht hat, sondern weil er von etwas angezogen wird, das man mit dem noch nie zuvor gehörten Wort Schwerkraft bezeichnet. Es bedarf sogar eines noch verrückteren Verstandes, um zu postulieren, dass die Schwerkraft lediglich eine Störung der Raumzeit ist, was selbst ein neues Konzept ist, das man gerade kennen gelernt hat. Ein Vorbehalt, den ich gegenüber Ausbildung hege, ist die schleichende Angst, dass so viele unserer hervorragenden Denker der Wissenschaft in die konventionelle Kategorie besonderer Erfordernisse gezwängt werden. Anstatt diese ausgefallenen Gedanken weiterzuführen, haben wir sie rasch in das Mainstream-Denken zurück gestoßen.
Falls man durch das System hindurch kommen will, und das vor allem auf einem modernen Universitätslevel, muss man sich akademisch konform verhalten. Man muss die Knie beugen und den verwünschten rosa Ring des Königs küssen. Die Zukunft hängt von der Beurteilung ab und damit von den Graden, von einem Haufen fest angestellter Krustentiere, die ihr ganzes Leben und ihren Ruf in eine bestimmte Interpretation der Welt investiert haben, so dass jedwede revolutionäre Theorie, mit der man schwanger geht, von vornherein falsch ist und man gut beraten ist, diese für sich zu behalten. Tatsächlich würgt dies innovatives Denken ab und man muss lernen, wie man das überwinden kann. Es ist eine Art vorauseilender arterieller Sklerose des Intellekts.
Das Traurige daran ist, dass die meisten Studenten, die das Aufbaustudium erreicht haben, bereits gelernt haben, sich an die Orthodoxie anzupassen. Das sind sehr helle und kluge Köpfe, aber das Denken außerhalb der Konvention ist den meisten von ihnen ausgetrieben worden. Auf diese Weise ist der neue Gedanke der Konsenswissenschaft in manchen Zweigen der Wissenschaft zustande gekommen, und es ist der Grund, warum in der Folge dieses Bastard-Kind geboren worden ist, genannt postmoderne Wissenschaft. So lange man sich der Anforderungen sicher ist, kann man mit dem Beweis der Spekulation nach Belieben vorgehen. Es ist diese alte böse Philosophie, dass das Ergebnis die Mittel rechtfertigt, wodurch die wissenschaftliche Methode ersetzt wird. Es ist Wissenschaft leicht.
Die illegitime Tochter hiervon ist natürlich die Unsicherheit. Wenn man einen eigenen Gedanken halbwegs glaubwürdig mit der Theorie in Einklang bringen kann, ist die Theorie bereits so gut wie bewiesen. Es ist eine ganz neue Art, mit Wissenschaft umzugehen. Anstatt der Theorie zu folgen und irgendetwas Konkretes zu unternehmen, um die Theorie zu testen, muss man die Theorie nicht einmal mehr beweisen, und die Daten der realen Welt werden verführerisch verformbar.
Anstelle der Daten hat man Computermodelle, welche – soweit es einen Laien betrifft – mit ihrer ganz eigenen vordergründig bestechenden Autorität daher kommen. Selbst wenn man die Physik der Wolken nicht versteht und nie die Mathematik bei der Abhandlung von Turbulenz angewandt hat, ist das Ergebnis eines einfach auf der Grundlage dieser Basis von Ignoranz programmierten Computers irgendwie zwingend legitim und jenseits aller Zweifel. Wenn man bedenkt, dass Klima eine Wechselwirkung zwischen einer unbekannten Zahl komplexer, nicht linearer Systeme ist, wie ich es tue, ist der Gedanke vorherzusagen, was das Klima im nächsten Jahr tun wird, geschweige denn im nächsten Jahrhundert, wissenschaftlich jenseits allen Glaubens ignorant. Er ist auch komplett unehrlich.
Ich habe die Welt der Klimawissenschaft sorgfältig durchkämmt und etwas gefunden, was ich als zwei große Geister und eine Armee von Pygmäen nennen möchte, die sich als Retter der Welt verkleiden, die aber am Ende des Tages alle wissen, wie man am besten Geld für sich locker macht und einen gewissen Bekanntheitsgrad erlangt oder beides. Sie treten miteinander via Wissenschaft in Verbindung, und auch wenn es manchmal schwierig wird, wird der große Konsens niemals in Frage gestellt. Die Mittelmäßigkeit brütet und bringt nicht besseres hervor als Mittelmäßigkeit, die nur selbst beschützt werden muss. Jeder, der den Konsens in Frage stellt, wird bald marginalisiert, also tun es viele Insider nicht, obwohl sie vielleicht so manchen gravierenden Zweifel haben. Das ist so wie eine Organisation, die die Fähigkeit verloren hat, sich selbst in Frage zu stellen.
In der Wissenschaft geht es allein darum, ein gewisses Maß an Sicherheit über die reale Welt zu vermitteln, und nicht um eine probabilistische und nicht verifizierbare Raterei darüber, wie sie funktioniert. Wenn Wissenschaftler darauf zurückfallen, über einen Konsens zu reden, heißt das nichts anderes als dass sie es einfach nicht wissen, wie schon der verstorbene Michael Crichton beobachtet hat.
Die große schimmernde Lüge im tiefsten Herzen der Klimawissenschaft war immer die proklamierte Gewissheit, und alles, was sie jetzt noch tun können, ist, diese Lüge bis zum Tod am Leben zu halten, mit welchen Mitteln auch immer.
Die Klimagate-E-Mails haben enthüllt, dass sie die ganze Zeit gelogen haben. Wie ein Lügner, der sich in seinem eigenen, von ihm gesponnenen Netz verheddert hat, bleibt ihnen als einzige Möglichkeit, an der Lüge weiter zu arbeiten und darauf zu bestehen, dass sich die Wissenschaft einig ist, selbst wenn gleißend offensichtliche Fakten der realen Welt dieser Wissenschaft widersprechen. Die Daten und die Methoden werden zurück gehalten, Anforderungen der Informationsfreiheit wird bei jedem Schritt auf dem Weg Widerstand geleistet, der Begutachtungsprozess wurde untergraben, Gegner wurden verunglimpft, Daten und Dateien zerstört, Zeitschriften eingeschüchtert und jede Untersuchung dieser Aktivitäten sorgfältig neutralisiert.
Nach zwei Jahrzehnten Angst erzeugender Vorhersagen hat Otto Normalverbraucher das Thema globale Erwärmung satt. Er kümmert sich nicht länger darum und wird mit jedem Tag tauber gegenüber den zunehmend hysterisch werdenden Prognosen von Armageddon. Obwohl es noch andere Gründe gibt, gibt dieser Verlust der Sorge den Politikern das Mandat, mit der finanziellen Zerstörung des Kartenhauses zu beginnen, das die globale Erwärmung errichtet hat. Der Papierkorb der Geschichte wartet darauf.
Das Engagement in jede bedeutsame öffentliche Debatte sowie das Verlieren derselben würde diesen Prozess nur beschleunigen. Nur durch das rigide Eintreten für das konform gehen mit dem Konsens und die Ablehnung, sich in irgendeiner Diskussion zu engagieren kann die Lüge weiterhin sicher verschleiern.
The Pointman
Link: http://www.thegwpf.org/real-debate-climate-science/
Übersetzt von Chris Frey EIKE




Paradox: Energiesparen führt zu höherem Verbrauch

Das Energie-Effizienz-Paradoxon

Warum die „grüne“ Technik nicht zu vermindertem Energieverbrauch führt.

Ronald Bailey, November 2012
Die Autohersteller arbeiten seit Jahrzehnten an der Verbesserung der Treibstoff-Effizienz. Warum aber haben unsere heutigen Autos keine besseren Verbräuche pro zurückgelegten Kilometern? Hinter dieser Frage verbirgt sich ein faszinierendes Paradox über den Energieverbrauch.
In einer Studie des MIT-Wirtschaftswissenschaftlers Christopher Knittel in der American Economic Review (Dezember 2011) steht, dass sich seit 1980 der durchschnittliche Treibstoffverbrauch amerikanischer Fahrzeuge nur leicht verbessert hat, von 10,2 auf 8,7 Liter/100Km. Knittel entdeckte aber auch, dass sich die Treibstoff-Effizienz – die Leistungsmenge, die eine Maschine pro Treibstoff-Einheit erzeugt – um 60 Prozent erhöht hat. Die Erklärung: Autos und Lkws sind größer und stärker geworden: Das Durchschnittsgewicht von Pkws hat sich um 26 % seit 1980 vergrößert, die Motorkraft wurde um 107 Prozent gesteigert. Der Großteil des Gewinns an Treibstoff-Effizienz ist von der Vergrößerung der Fahrzeuge und der Motorstärke aufgefressen worden.
 
Erhöhte Energie-Effizienz wird von größeren und stärkeren Autos aufgefressen.
Autos sind nicht die einzige Kategorie, wo sich höhere Effizienz nicht in verminderten Energieverbrauch umgesetzt hat. Die Effizienz der Beleuchtung wurde in den vergangenen drei Jahrhunderten um ein Vieltausendfaches erhöht, vom Kerzenschein hin zu modernen LEDs, wie Jeff Tsao und seine Kollegen vom Sandia National Laboratory in der Zeitschrift Energy Policy (Juli 2012) feststellten. Aber das Ergebnis

“ist eine Zunahme der Energienachfrage für Beleuchtung, die fast genau die Verbesserung der Effizienz-Gewinne ausmacht.”

Die Autoren schreiben,

“wenn die Beleuchtung billiger wird, werden die in der Wirtschaft Tätigen sehr kreativ beim Erfinden neuer Nutzungs-Möglichkeiten,“

wie z. B. die Beleuchtung von Bürodecken mit künstlichen Himmeln aus LEDs. Für die kommenden Jahrzehnte sagen Tsao et al. vorher, dass die zunehmende Nachfrage für Beleuchtung jegliche weiteren Effizienzgewinne auffressen wird.
In einer anderen jüngeren Studie, veröffentlicht im Journal Sustainability (Juli 2012), hat Graham Palmer, Technischer Leiter einer Australischen Heizungs- und Kühlungsfirma, die Trends während der letzten 50 Jahre für Melbourne in der Effizienz der Raumheizung angeschaut. Moderne Häuser haben laut Palmer eine um das Zehnfache gesteigerte Energie-Effizienz, trotzdem verbrauchen die Australier heute insgesamt fast genau so viel Energie für die Heizung ihrer Häuser wie vor einem halben Jahrhundert. Warum? Die neuen Häuser sind viel größer, die Menschen heizen größere Räume über längere Zeiträume und in jeder Behausung leben weniger Menschen. Natürlich haben es die modernen Australier im Winter viel bequemer als ihre Großeltern. 
Gleichermaßen wurde in einer Studie der U.S. Environmental Protection Agency (2006) festgestellt, dass Häuser in Phoenix, Arizona, die den „Energy Star“ der EPA erhielten, 12 Prozent mehr Energie verbrauchten als Häuser ohne diese Qualifikation. Die Bewohner von Energy-Star-Häusern verbrauchen 16 Prozent weniger Energie pro Quadratfuß Wohnfläche, aber sie verschleudern die Gewinne durch größere Häuser. 
Dieser “Rückschlag-Effekt” birgt wichtige Implikationen für alle Bemühungen, den Klimawandel durch Verbrauchseinschränkung aufzuhalten. In vielen Studien wird die Meinung vertreten, Effizienz-Verbesserungen würden den Energieverbrauch derart senken, dass die globalen CO2-Emissionen um 25 Prozent innerhalb der nächsten vier Jahrzehnte vermindert würden. Das ist aber ein hoch kontroverses Thema unter den Gelehrten.
In einem Artikel in Science (2007) haben die Forscher Robert Socolow und Stephen Pacala von der Princeton University errechnet, dass sieben “Stabilisierungs-Hemmschuhe” den Anstieg der globalen CO2-Konzentration auf den zweifachen Wert im Vergleich zur prä-industriellen Höhe verhindern könnten.

„Verbesserungen in der Effizienz und Verbrauchseinschränkung bieten wahrscheinlich das größte Potenzial,“

argumentierten sie. Ein einziger Hemmschuh (gleich einem Siebtel der notwendigen Reduzierung) könnte eingezogen werden, entweder durch Verdoppelung des Liter-Verbrauchs/100Km der prognostizierten 2 Mrd. Autos oder durch Halbierung der Entfernungen, die sie pro Jahr zurücklegten. Ein weiterer Hemmschuh könnte nach Ansicht der Forscher eingezogen werden durch die Anhebung der Effizienz der kohlebefeuerten Kraftwerke von 40 auf 60 Prozent.
Der Wirtschaftswissenschaftler Robert Michaels von der California State University in Fullerton greift in einem neuen Bericht mit dem Titel “Das Dilemma des Rückschlags” für das Marketing Institute for Energy Research (IER) das Denken an, das hinter den Vorstellungen von Verbrauchseinschränkungen steht. Michaels‘ Analyse teilt die Rückschlagwirkungen in vier Kategorien ein: direkte, indirekte, unsichtbare, gesamtwirtschaftsbezogene Rückschläge. 
Der Fall mit den Heizungen in Melbourne illustriert den direkten Rückschlags-Effekt: Bessere Dämmung und wirksamere Heizungen haben den Energieverbrauch nicht vermindert, weil die Menschen die Gewinne für größere, wärmere Häuser verbraten haben. Noch ein Beispiel: Wenn der Durchschnittsverbrauch der Autos pro 100Km sinkt, wird das Autofahren billiger und die Menschen fahren mehr. Ein indirekter Rückschlag stellt sich ein, wenn die Verbesserungen der Wirksamkeit die Herstell-Produktivität anderer Güter erhöhen und dadurch die Nachfrage nach Energie erhöhen. So steigt beispielsweise die Nachfrage nach Autoreifen an, wenn die Menschen mit ihren energie-effizienten Autos mehr fahren, was erhöhten Energieverbrauch bei den Reifenherstellern erzeugt.
Unsichtbare Energie ist die Energie, die benötigt wird, um energie-effiziente Güter herzustellen, wie z. B. hochwirksame Wärmedämmungen.
In den gesamtwirtschaftsbezogenen Rückschlägen sind indirekte und unsichtbare Energierückschläge enthalten. Sie ergeben sich aus der Art und Weise, wie die Menschen ihre Ersparnisse beim Energieverbrauch einsetzen, um andere Güter und Dienstleistungen einzukaufen, die ebenfalls Energie bei ihrer Herstellung verbrauchen.
Die Befürworter der Verbrauchseinschränkungen meinen, dass die Rückschlagswirkung oft viel geringer wäre, als die durch die erhöhte Effizienz eingesparte Energie. In einem Klassiker, einer Studie im Energy Journal (1992) von David Greene, einem Umwelt-Ingenieur am Oak Ridge National Laboratory, wird gesagt, dass die direkte Rückschlagswirkung von erhöhter Effizienz beim Autotreibstoff den Energieverbrauch um 5 bis 15 Prozent erhöhte, weil die Menschen um diesen Betrag mehr Auto führen. Die neue MIT Studie meint dagegen, dass der Großteil der Erhöhung der Treibstoff-Effizienz während der vergangenen Jahrzehnte von größeren und stärkeren Autos aufgefressen worden wäre, ein Phänomen, das Greene nicht berücksichtigte.
Die Sichtung der Forschungen zum Rückschlags-Effekt im Zusammenhang mit der Energie-Effizienz in Verbraucherhaushalten hat unterschiedliche Ergebnisse gezeigt. Ein rascher Blick auf die Zahlen beweist aber eine direkte Rückschlagsrate um die 30 Prozent. Wenn ein Gerät mit einem Monatsverbrauch von 100 Kwh durch ein anderes ersetzt wird, das nur 50 Kwh verbraucht, dann bedeutet ein 30-Prozent-Rückschlag, dass der Energieverbrauch nicht auf 50 Kwh absinkt sondern auf 65 Kwh (30 Prozent mehr als 50). Eine Gesamtverminderung um 35 Kwh also. Immer noch günstig, weil der Verbraucher einen gleichwertigen oder höheren Vorteil von dem neuen Gerät hat und Strom spart. 
Die gesamtwirtschaftsbezogenen Rückschläge können nur unter größeren Schwierigkeiten errechnet werden. Das durch das Fahren eines Treibstoff-effizienten Autos gesparte Geld z. B. könnte vielleicht nicht für einen Urlaubsflug an einen karibischen Strand verbraucht werden. Gesamtwirtschaftliche, sich aufaddierende indirekte Rückschlagswirkungen könnten zu einem noch höheren Energieverbrauch führen, wenn das Netto-Ergebnis der erhöhten Energie-Effizienz ein höherer Verbrauch ist.
In der IER-Studie zitiert Michaels 11 wirtschaftswissenschaftliche Analysen, die gesamtwirtschaftliche Rückschläge enthielten in Größenordnungen zwischen 23 Prozent bis 177 Prozent; fünf Studien berichteten von gesamtwirtschaftlichen Rückschlägen von über 100 Prozent. Mit anderen Worten: das Ergebnis auf längere Sicht ist höherer Energieverbrauch.
Das Ende vom Lied aller dieser Studien ist, dass Vorschriften für Energie-Effizienz die erhofften Erwartungen hinsichtlich einer Abschwächung des menschengemachten Klimawandels nicht erfüllen werden. Michaels schlussfolgert:

“Anstatt auf Energie-Effizienz-Vorschriften zu setzen sollte die Energiepolitik auf Marktpreise setzen und durchschlagende Innovationen für den hochwertigsten Einsatz von Energie.”

Schlussendlich ist das Argument für verbesserte Energie-Effizienz nicht die Verhinderung des Verbrauchs von Energie sondern die Erhöhung der Produktivität als Mittel zur Deckung der Nachfrage der Menschen nach mehr Gütern und Dienstleistungen.
Ronald Bailey ist Wissenschaftskorrespondent beim Magazin Reason und der Aitpr vom Liberation Biology (Prometheus).
Übersetzung: Helmut Jäger, EIKE
Original hier
Daten zu Roland Bailey hier