Stillstand bestätigt: Wissenschaftler geben endlich zu, dass die Klimamodelle falsch sind.

„Es gibt da diese Diskrepanz zwischen dem, was die Klimamodelle erzeugen und dem, was die Beobachtungen und Messungen zeigen“, sagte John Fyfe der Zeitschrift Nature. Fyfe ist kanadischer Klima-Modellierer und Leitautor der neuen Studie. „Das können wir nicht ignorieren“.

„Die Realität hat sich von unseren Erwartungen abgekoppelt – es ist absolut normal, diese Differenz zu erkennen und zu verstehen“, sagte auch Mitautor Ed Hawkins, Klimawissenschaftler in UK, in einem Blogbeitrag.

Dies ist ein umwälzendes Eingeständnis von Klimawissenschaftlern und ein großer Sieg für Skeptiker hinsichtlich der AGW-Theorie, welche schon seit Jahren auf das Missverhältnis zwischen Prophezeiungen der Klimamodelle einerseits und tatsächlichen Temperaturmessungen andererseits hingewiesen hatten.

„Alles in allem ist die Studie ein Eingeständnis seitens prominenter Vertreter der wissenschaftlichen ,Mainstream‘-Gemeinschaft; dass sich nämlich die Temperaturen der Erde während der letzten beiden Jahrzehnte nicht in einer Weise entwickelt haben, wie es mit ziemlicher Sicherheit sowohl von der wissenschaftlichen Gemeinschaft als auch von den Klimamodellen, auf die sie sich verlassen haben, erwartet worden war“, sagt Chip Knappenberger, Klimawissenschaftler am libertären Cato Institute der The Daily Caller News Foundation. „Das ist etwas, worauf die Skeptiker schon seit Jahren hinweisen“.

Knappenberger und sein Kollege bei Cato Patrick Michaels waren prominente Kritiker der Klimamodelle, auf die sich „Mainstream“-Klimawissenschaftler so sehr stützten. Sie sagen, dass die Modelle globale Temperaturanstiege für die letzten sechs Jahrzehnte nicht richtig vorhergesagt hätten (hier).

In einer jüngst veröffentlichen Studie verglichen Michaels und Knappenberger gemessene globale Erwärmungsraten der Temperatur seit dem Jahr 1950 mit Prophezeiungen von 108 Klimamodellen, die von Klimawissenschaftlern der Regierung herangezogen werden. Sie fanden dabei, dass die Klimamodelle viel höhere Erwärmungsraten projiziert hatten als tatsächlich beobachtet.

Michaels und Knappenberger stehen nicht allein da. Aus Satellitenmessungen abgeleitete Temperaturwerte zeigten einen „Stillstand“ der globalen Erwärmung seit mindestens der letzten 18 Jahre, trotz steigender CO2-Emissionen. Während einige Wissenschaftler versuchten, diese Satellitenmessungen zu diskreditieren, waren sie nicht in der Lage, das Fehlen einer signifikanten Erwärmung während der letzten Jahre zu erklären.

„Wenn eine Theorie den Fakten widerspricht, muss man die Theorie ändern“, sagte der Klimawissenschaftler John Christy in einer Anhörung vor dem Kongress im Januar (hier). „Die reale Welt spielt hinsichtlich einer rapiden Erwärmung nicht mit. Die Modelle müssen zurück auf den Prüfstand“.

Christy und sein Kollege Roy Spencer stellen an der University of Alabama in Huntsville (UAH) aus Satellitenmessungen abgeleitete Temperaturdaten zusammen.Ihre Satellitendaten haben seit etwa zwei Jahrzehnten keinerlei Erwärmung gezeigt (hier). Forscher, die hinsichtlich der Behauptungen einer katastrophalen globalen Erwärmung skeptisch sind, hatten wiederholt auf diese Daten hingewiesen.

„Beim Großteil der atmosphärischen Temperatur ist das Signal am stärksten“, sagte Christy in der Anhörung unter Verweis auf den Treibhauseffekt. „Wir haben dafür Messungen – sie passen nicht zu den Modellen. Weil dieses Ergebnis die gegenwärtige Theorie der Treibhausgas-Erwärmung ziemlich geradlinig in Frage stellt, gab es viele gut gestützte Angriffe auf jene von uns, die derartige Datensätze erstellen und heranziehen sowie auf die Datensätze selbst“.

[Hervorhebung vom Übersetzer]

Inzwischen scheint Skeptizismus den Tagessieg davongetragen zu haben – zumindest wenn es darum geht, andere Wissenschaftler davon zu überzeugen, dass es ein großes Problem mit den Klimamodellen gibt.

Fyfes Studie – bei der der wegen seiner „Hockeyschläger-Kurve“ berüchtigte Michael Mann als Mitautor fungierte – widerspricht einer Studie von NOAA-Wissenschaftlern mit der Behauptung, dass es keinen Stillstand der globalen Erwärmung gebe (hier).

„Alles in allem gibt es überzeugende Beweise, dass es eine vorübergehende Verlangsamung der beobachteten globalen Erwärmung gibt“, schrieb Hawkins in einem Blogbeitrag über die Studie. „Die jüngsten 15-Jahre-Trends sind alle positiv, aber niedriger als die meisten ähnlichen Trends der letzten paar Jahrzehnte. Dies ist ein eindeutiger Beweis, dass die Änderungsrate sich seit ihrem Spitzenwert verlangsamt hat“.

Aber selbst mit diesem Eingeständnis sind manche Skeptiker immer noch kritisch, weil die Autoren der Studie Verfahren angewendet hatten, denen sie, die Skeptiker, auch früher schon kritisch gegenüber standen.

„All dies sagt uns, dass die Autoren Verfahren angewendet hatten, um eine Verlangsamung zu zeigen – dass wenn die gleichen Verfahren von Skeptikern angewendet werden, diese dafür harsch kritisiert werden“, sagte Knappenberger. „Dies ist für mich ein Indiz, dass die Mainstream-Gemeinschaft einigen Forschern mehr Freiraum einräumt als anderen“.

Link: http://www.cfact.org/2016/02/26/hiatus-confirmed-as-scientists-finally-admit-climate-model-fail/

Übersetzt von Chris Frey EIKE




Blut-Handys und -Teslas

Inzwischen stellt sich heraus, dass Hybrid- und Elektrofahrzeuge längst nicht so „grün“ und „öko-freundlich“ sind. Gleiches gilt für Handys, Labtops, Windturbinen, Solarpaneele und eine Unmenge von Technologie, die für Batterien, Magnete und andere Komponenten angewendet wird und die Kobalt, Lithium, seltene Erden und andere Metalle benötigen.

Viele dieser Technologien stammen aus Minen, aus Bergbaumethoden und Verfahren, in Ländern, die nicht einmal in die Nähe moderner Standards des Umweltschutzes kommen, in denen es Kinderarbeit gibt und wo „keine soziale Verantwortung“ herrscht. Man kann sie „Blut-Technologien“ und „Konflikt-Metalle“ nennen.

In einem vor kurzem erschienenen Artikel in der Washington Post mit der Schlagzeile „The cobalt pipeline“ wurde versucht, die Ursprünge jenes essentiellen Metalls aufzuspüren, aus umweltlich verheerenden, sogar tödlichen, von Hand gegrabenen Minen in Kongo, die für multiple Verbraucherprodukte benötigt werden. Während in dem Augen öffnenden Artikel von Todd Frankel viele wichtige Dinge fehlten und andere nur aus der vereinfachten Perspektive entwickelter Nationen angesprochen wurden, ist er doch bzgl. moderner Technologien lesenswert.

Lithium-Ionen-Batterien, für die Kobalt unverzichtbar ist, stecken im Amazon Kindle, Apple und anderen Handys und Labtops sowie in Hybrid- und Elektrofahrzeugen von BMW, Chevrolet, Ford, Honda, Tesla und Toyota. Die Mengen reichen von 10 Gramm in Smart Phones und 28 Gramm in Labtops bis zu Mengen wie 15 kg in Elektroautos. All das wird in dem Artikel ausgeführt.

Etwa 60% des Gesamtverbrauchs weltweit stammt aus der Demokratischen Republik Kongo (DRC), schreibt Frankel, und die große Mehrheit davon (72.000 Tonnen Eisenerz im Jahre 2015) wird mittels eines chinesischen Unternehmens (Congo DongFang International Mining) den größten Batterie-Herstellern der Welt geliefert.

Die globale Nachfrage nach Kobalt hat sich seit dem Jahr 2010 verdreifacht. Aber im Jahre 2015 verkauften US-Händler lediglich 115.000 Elektroautos – eine Abnahme um 4% im Vergleich zum Vorjahr und ein Anteil von lediglich 0,7% der 17,5 Millionen Autos und Kleintransporter, die in Amerika verkauft worden waren. Man stelle sich einmal vor, wie viel Kobalt-Erz erforderlich wäre, falls allen Autos in den USA ein Elektroantrieb vorgeschrieben wäre, wie viele Politiker und Umweltaktivisten fordern. [Woran erinnert mich das, wenn ich an D denke? Anm. d. Übers.]

Ferner stelle man sich die Millionen Tonnen Kobalt, Lithium, seltene Erden und andere Metallerze vor, die abgebaut werden müssten – oftmals unter ähnlich unsicheren, verschmutzenden und umweltlich verheerenden Bedingungen an Orten wie DRC oder auch Baotou, Inner Mongolia (siehe Bild oben) – um Millionen Windturbinen und Milliarden Solarpaneele herzustellen, von denen gefordert wird, dass sie fossile Treibstoffe ersetzen durch eine „umweltfreundliche erneuerbare“ Stromerzeugung in den USA, in Europa und anderswo. Man versuche einmal sich vorzustellen, wie viel riesige landschaftliche Flächen davon betroffen wären.

Ich schätzte, dass die Erzeugung lückenhaften Stromes in den USA ein Gebiet beanspruchen würde von der Größe Montanas, das mit einem Gewimmel von ca.120 m hohen Windturbinen gepflastert wäre. Ein anderer Analyst berechnet, dass mehr Landfläche betroffen wäre als Montana und North Dakota zusammen: [umgerechnet] 564.000 km². Vögel und Fledermäuse schlachtende Windturbinen (hier) würden freien Raum dazwischen lassen, aber Vögel röstende (hier) und andere Solar-Einrichtungen würden riesige Gebiete überdecken.

Und falls wir fossile Treibstoffe in primären und in Backup-Kraftwerken eliminieren, müssen wir den Wind- und Solarstrom speichern – was massive Batterie-Kapazitäten erfordert, die Millionen weitere Tonnen Kobalt und Lithium benötigen.

Bergbauexperten sagten mir, das bekannte Lagerstätten in den USA kommerziell abbaubaren Kobalt enthalten. Mit meinen eigenen Forschungen (hier) im Jahre 1994 hat sich ergeben, dass nahezu alle Metalle für diese und andere Technologien in den USA gefunden werden können, die aber für Ausbeutung und Entwicklung tabu sind, weil sie dutzendfach landschaftliche und umweltliche Standards verletzen. Wir können nicht einmal abschätzen, was es dort alles gibt – noch können wir vernünftige politische Entscheidungen treffen, ob die gesamte Bandbreite technologischer, ethischer, umweltlicher und ökonomischer Überlegungen für deren Ausbeutung spricht unter Anwendung moderner Verfahren unter der heutigen rigorosen Vorschriftenlage. Tatsächlich ist es so: selbst wenn Lagerstätten dennoch legal zugänglich wären, ist es zunehmend unmöglich, Genehmigungen für Evaluierung und Abbau zu erhalten. Der Bergbau verlagert sich folglich nach Übersee, weil selbst die leidenschaftlichsten Umweltaktivisten und Politiker es ablehnen, ohne ihre technologischen Wunderdinge zu leben.

Westliche Bergbau-Unternehmen könnten jene Übersee-Lagerstätten ausbeuten unter Vorschriften und Verfahren, die die Umwelt und die Sicherheit der Arbeiter gleichermaßen schützen. Aber oftmals werden sie zu stark verunglimpft und geschmäht, schikaniert und außen vor gelassen – durch leidenschaftliche Umweltaktivisten und Politiker. Das Vakuum wird gefüllt von Unternehmen aus China und anderswoher, die unter weit weniger rigorosen Sicherheits-, Umwelt- und Gesundheitsstandards operieren.

Oder noch schlimmer, es wird gefüllt durch tausende armer „Möchtegern“-Bergarbeiter, die Löcher buddeln und Minen graben mit Handwerkszeugen – unter geringen oder gar keinen Standards für Gesundheit, Sicherheit oder Umwelt, und oftmals auch ohne Genehmigung – um ein paar Dollars am Tag zu ergattern, um ihre Familien zu ernähren und einzukleiden. Die gefährliche, rückenschädliche Arbeit wird oftmals zum Familienunternehmen – wobei Frauen und Kinder Seite an Seite mit ihren Vätern arbeiten – alle eingehüllt in den Staub von Schwermetallen, den sie sogar noch nach Hause bringen und damit Babys und Kleinkinder infizieren.

Das Ergebnis sind hohe Niveaus von Kobalt, Blei und Uran in ihrem Blut, Urin und Organen – sowie multiple Blut- und Atemwegs-Erkrankungen, aber auch Geburtsschäden. Das Risiko schwerer Unfälle mit Todesfolge ist in den Minen allgegenwärtig und akut. Frankel und andere beklagen diese Situation zu Recht. Allerdings ist die nur allzu wirkliche Alternative für Mütter und Töchter die Prostitution, Diebstahl für Väter und Söhne, oder Hunger und Tod für alle.

Kurz- und mittelfristige Lösungen sind schwer zu fassen in Ländern, die so mittellos und dysfunktional sind wie die DRC. Sie werden sogar noch weiter ins Unglück gestürzt durch die gleiche „soziale Verantwortung“ und die „Umwelt“-Aktivisten, die Ruhm und Ehre gewinnen durch ihren Kampf gegen westliche Bergbau-Unternehmen (hier).

Als Doe Run extensive Projekte startete, um das Jahrzehnte lange Erbe entsetzlicher, vom Staat betriebener Blei- und Silberminen in Peru zu modernisieren und sauberer zu machen, erhoben jene Aktivisten schließlich ihre Stimme – um das Unternehmen dafür zu brandmarken, dass es diese Probleme nicht über Nacht beseitigte. Im gleichen Stil sind von Chinesen betriebene Bergbau-Unternehmungen eine Verbesserung gegenüber diesen Kleinst-Bergarbeitern, aber schaut man auf die Gesundheits-, Umwelt- und Menschenrechts-Verhältnisse in Batou, Peking und anderswo, gibt es wenig Grund zu Optimismus.

Mehr noch, die rund 100.000 Kleinst-Bergarbeiter in Kongo bedeuten, dass die Unternehmen keine Löhne zahlen oder sich um die Gemengelage von Gesundheit, Sicherheit und Verschmutzung keine Gedanken machen müssen. Dies macht das Kupfer billiger, was Bergbau-, Verarbeitungs-, Batterie-, Computer- und Auto-Unternehmen Vorteile verschafft – und der labyrinthische Akquisitions-Prozess macht es schlicht unmöglich, die Ursprünge einer bestimmten Menge Chrom zurückzuverfolgen.

Kleine und sogar moderne unternehmerisch betriebene Minen sind inhärent gefährlich und tödlich. Allerdings verabscheuen die globalen Grünen den Tagebau, trotz der weit geringeren Risiken. Erzwungene Umzüge von Familien und Gemeinden sind immer schwierig, wie Frankel beobachtet – sei es nun wegen Kobaltminen oder für TVA-Projekte, Chinas Drei-Schluchten-Damm, Klimaprogramme für Uganda (hier) oder Anti-Holz-Kampagnen, die die ökonomischen Grundlagen vieler Gemeinden zerschlugen.

Unter den Fragen sind jetzt Folgende: Wo und wann beginnt man mit dem Aufräumen dieses Durcheinanders, mit welchem Geld in dieser mittellosen und oft von Kriegen zerrissenen Region? Wie ersetzt oder verbessert man DongFang, oder wie macht man es für westliche Unternehmen attraktiv, gegen die skrupellose, heuchlerische Verunglimpfungs-Kampagnen losgetreten werden mittels der 15-Milliarden-Dollar-pro-Jahr-Kabale von Big Green?

Dies sind die gleichen öko-imperialistischen Aktionsgruppen, die gegen Bohren, Fracking und fossile Treibstoffe sind, selbst dann, wenn dies Familien aus der Armut holen würde; sie sind gegen Pipelines und Bahnlinien für Öltransporte, weil sie nach einer kohlenwasserstoff-freien Zukunft schreien; sie sind gegen DDT und andere Pestizide, um Malaria zu verhindern; sie sind gegen Goldenen Reis und andere GMO-Erträge, die Mangelernährung, Hunger, Armut, Blindheit und Tod vermeiden können. Sie stützen nur minimale ökonomische Entwicklung in Ländern der Dritten Welt und auch nur das, was mit Wind und Solar betrieben werden kann.

Über allem aber steht, dass sie auf unverschämte Weise sicherstellen, dass arme Nationen in Armut, Krankheiten und Tod verbleiben.

All dies sollte wirklich allmählich die Augen der Menschen öffnen. Man sollte umdefinieren, was „grüne“ Energie und Technologie ist, und eine intensive Debatte erzeugen darüber, was wirklich ethisch, umweltfreundlich und sozial verantwortlich ist; was umweltliche Gerechtigkeit und Öko-Rassismus ist. Ob das aber tatsächlich irgendwann geschieht, muss abgewartet werden.

Link: http://www.cfact.org/2016/10/08/blood-cell-phones-and-teslas/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Es ist absolut erschreckend, dass es im Bundestag, wie kürzlich von Herrn Kuntz hier beschrieben, vor diesem Hintergrund keinen einzigen unserer Volksvertreter gibt, der dieses himmelschreiende Gebaren ablehnt oder zumindest hinterfragt. Man stelle sich mal vor, irgendwelche Nazis würden genau das Gleiche machen… C. F.




Die unvermeidliche Evolution schlechter Wissenschaft

Wie auch Andere hier schon angemerkt haben, liegt das Problem darin, dass das, was für individuelle Wissenschaftler gut ist, nicht notwendigerweise auch für die Wissenschaft als Ganzes gut ist. Gegenwärtig ist die Karriere eines Wissenschaftlers abhängig von der Veröffentlichung so vieler Studien wie möglich in den prestigeträchtigsten Journalen. Mehr als alles andere verschafft ihnen dies Prestige, [finanzielle] Zuwendungen und Jobs.

Jetzt stelle man sich vor, man sei ein Forscher, der mit diesem System spielen will. Folgendes wird man tun: man fertige viele kleine und statistisch auf schwachen Füßen stehende Studien an. Man optimiere dann seine Verfahren, um positive Ergebnisse sicherzustellen. Falls man negative Ergebnisse erhält, kehre man sie unter den Teppich. Man versuche niemals, frühere Ergebnisse zu checken; man verfolge nur neue und begeisternde Ergebnisse. Dies ist kein Larifari. Wir wissen, dass es solche Praktiken im Überfluss gibt. Sie sind großartig, um Veröffentlichungen zu lancieren, aber sie verunreinigen auch die wissenschaftliche Aufzeichnung mit Ergebnissen, die tatsächlich nicht wahr sind. Richard Horton, Herausgeber von The Lancet, schrieb einmal: „Niemand wird Anreize bekommen, um Recht zu haben. Stattdessen bekommen Wissenschaftler Anreize, produktiv zu sein“.

Dies ist kein neuer Gedanke. In den siebziger Jahren schrieb der Sozialwissenschaftler Donald Campbell, dass jedwede Qualitäts-Metrik korrumpiert werden kann, falls die Leute anfangen, die Metrik selbst zu priorisieren über die Wesenszüge, die sie vermeintlich reflektiert. „Wir fanden, dass dieses Argument selbst dann funktioniert, falls Individuen nicht versuchen, ihre Metrik zu maximieren“, sagt Smaldino.

Er und McElreath zeigten dies hier, indem sie ein mathematisches Modell erzeugten, in dem simulierte Labore miteinander im Wettbewerb standen und sich entwickelten – man denke an SimAcademia. Die Labore wählten Dinge, die sie studieren wollten, ließen Experimente laufen, um ihre Hypothesen zu testen und versuchten, ihre Ergebnisse zu veröffentlichen. Sie variieren hinsichtlich der Stärke der Bemühungen zum Austesten ihrer Gedanken, was darauf einwirkt, wie viele Ergebnisse sie bekommen und wie zuverlässig diese Ergebnisse sind. Da gibt es einen Zielkonflikt: Mehr Mühe bedeutet richtigere, aber weniger Veröffentlichungen.

Im Modell wie in der Akademia sind positive Ergebnisse leichter zu veröffentlichen als negative, und Labore, die mehr veröffentlichen, bekommen mehr Prestige, Förderung und Studenten. Auch sie geben ihre Verfahren weiter. Mit jeder Generation stirbt eines der ältesten Labore, während sich eines der produktivsten reproduziert und Nachwuchs hervorbringt, der den Forschungsstil seines Doktorvaters nachmacht. Das ist das Äquivalent eines Studenten aus einem erfolgreichen Team, der ein eigenes Labor eröffnet.

Mit der Zeit und über viele Simulationen gleiten die virtuellen Labore unaufhaltsam in Richtung weniger Mühe, schlechtere Verfahren und fast vollständig unzuverlässiger Ergebnisse. Das Wichtige dabei ist: Anders als der hypothetische Forscher, den ich zuvor heraufbeschworen habe, versucht keiner dieser simulierten Wissenschaftler aktiv zu schummeln. Sie wandten keine Strategie an und verhielten sich integer. Und doch glitt die Gemeinschaft in Richtung schlechterer Verfahren. Das Modell zeigt: eine Welt, die Wissenschaftler für Publikationen über allem anderen belohnt – also eine dieser Welt nicht ganz unähnliche – führt auf natürliche Weise zu schwächerer Wissenschaft.

„Das Modell kann sogar optimistisch sein“, sagt Brian Nosek vom Center of Open Science, weil es nicht unsere unglückliche Tendenz in Betracht zieht, den Status Quo zu rechtfertigen und zu verteidigen. Er merkt zum Beispiel an, dass Studien im Bereich der sozialen und biologischen Wissenschaften im Mittel beklagenswert schwach ausgestattet sind – sie sind zu klein, um zuverlässige Ergebnisse zu erbringen.

Geringe statistische Belastbarkeit ist ein offensichtliches Symptom schwacher Forschung. Sie ist leicht zu berechnen, und die Menschen haben darüber seit den sechziger Jahren geredet. Und doch, über 50 Jahre später, hat sich daran überhaupt nichts verbessert. Tatsächlich „gibt es nach wie vor aktiven Widerstand gegen Bemühungen, die statistische Belastbarkeit zu erhöhen, und zwar seitens der Wissenschaftler selbst“, sagt Nosek. „Wenn der Wunsch nach Veröffentlichung höher ist als der Wunsch nach Richtigkeit, werden Forscher geringe statistische Belastbarkeit verteidigen, obwohl dies Null Qualität für die Wissenschaft bedeutet“.

Wichtig: „Solange es die Anreize gibt, wird es Belohnungen für jene geben, die das System täuschen können, ob sie das nun absichtlich machen oder nicht“.

Wissenschaftler haben jetzt mit den Konsequenzen dieser Stagnation zu kämpfen. In vielen Bereichen, darunter Neurowissenschaft, Genetik, Psychologie, Ökologie und Biomedizin, gibt es Gerede über eine Reproduzierbarkeits-Krise, in der schwache und schlechte Studien die Welt mit zweifelhaften Ergebnissen überschwemmt haben. „Wir bringen viel Zeit damit zu, uns über die Kultur der Wissenschaft zu beklagen, aber verbale Diskussionen erlauben es den Leuten, darüber zu reden“, sagt Smaldino. „Ein formelles Modell erlaubt es deutlicher zumachen, worüber man spricht“.

Zum Beispiel haben sich viele Wissenschaftler auf Replikation konzentriert – also der Wiederholung von Studien, um zu sehen, ob deren Ergebnisse stehen – als eine Art, die Zuverlässigkeit der Wissenschaft zu verbessern. Aber das würde dem Modell von Smaldino und McElreath zufolge nichts besser machen. Ihre Labore könnten Zeit damit verbringen, Arbeiten der Vergangenheit zu reproduzieren, und falls diese Versuche scheitern, würden die ursprünglichen Autoren einen erheblichen Rufschaden erleiden. Aber das spielte keine Rolle, „weil es viel mehr Ergebnisse gibt als überhaupt reproduziert werden können“, sagt Smaldino. Langfristig sind Labore damit durchgekommen, wenn sie schlechte Verfahren angewendet hatten, sogar falls andere sie mit ihren dubiosen Ergebnissen konfrontierten.

„Solange es die Anreize gibt, wird es Belohnungen für all jene geben, die das System beschummeln können, ob sie das nun absichtlich tun oder nicht“, sagt Smaldino. Um die Wissenschaft zu verbessern, müssen sich die Anreize ändern.

Und diese Änderungen müssen für alle Bereiche gelten, aber es müssen keine großen Veränderungen sein, sagt Nosek. Beispiel: Wenn Wissenschaftler nach Promotionen streben, werden sie oftmals aufgefordert, eine vollständige Liste ihrer Studien vorzuweisen. Niemand hat die Zeit, alle diese Studien zu lesen, und darum greifen die Mitglieder des Komitees zu an sich unpassenden Dingen wie etwa der Anzahl der Studien oder dem Prestige der Journale. „Eine einfache Änderung wäre es, den Kandidaten aufzufordern drei Artikel einzusenden, welche das Komitee lesen und detailliert bewerten kann“, sagt Nosek. „Das wären Anreize für die Kandidaten, drei herausragende Arbeiten zu erstellen“.

Aber in UK hat man ein solches System bereits aufgelegt, um Wissenschaftler zu beurteilen, und Andrew Higginson sowie Marcus Munafo, zwei Psychologen der Universities of Exeter bzw. Bristol würden verneinen, dass dies besser ist. Sie haben ein anderes mathematisches Modell angewendet, um vorherzusagen, wie sich Wissenschaftler verhalten sollen, um den Wert ihrer Veröffentlichungen für ihre Karriere zu maximieren. Und sie kamen zu dem Ergebnis, dass falls die Leute auf der Grundlage einer kleinen Anzahl von hoch einflussreichen Veröffentlichungen beurteilt werden, es für sie die beste Strategie ist, all ihre Bemühungen auf geringerwertige Studien zu konzentrieren, die sich nur an neuesten Ergebnissen ausrichten ohne die Ergebnisse älterer Studien zu checken. Als Folge davon wird die Hälfte dessen, was sie veröffentlichen, falsch sein.

Es gibt andere Lösungen. Einige Wissenschaftler haben sich für ein System der „Vor-Registrierung“ [pre-registration] stark gemacht, wobei die Arbeit vor dem Hintergrund ihrer Gedanken und Pläne bewertet wird, bevor irgendeine Arbeit tatsächlich angefertigt wird. Sie verpflichten sich, den Plan buchstabengetreu auszuführen, und die Journale verpflichten sich, die Ergebnisse zu veröffentlichen, egal welcher Art diese sind. Das reduziert die Kapazität und den Anreiz, mit Studien Schindluder zu treiben, um die eigenen Chancen auf die Durchführung einer Studie zu erhöhen. Außerdem verschiebt sich der Schwerpunkt weg von augenfälligen Ergebnissen hin zu soliden, zuverlässigen Verfahren. Fast 40 Journale veröffentlichen diese Art von Registered Reports, und es gibt Bemühungen, diese enger an Zuwendungen zu binden (hier), so dass eine einzelne Begutachtung der Verfahren in einer Studie Zuwendungen und Veröffentlichung garantiert.

Das Hauptgewicht auf Transparenz zu legen, kann ebenfalls helfen, sagt Simine Vazire, eine Psychologin an der University of California. „Falls die Autoren verpflichtet werden, mehr Details über ihre Forschungen bekannt zu geben, werden die Journale und die Begutachter besser in der Lage sein, die Qualität dieser Studien zu evaluieren, und es wird viel schwieriger für die Autoren sein, das System vorzuführen“.

Spitzenjournale wie Nature und Science ermutigen Autoren tatsächlich, transparenter zu sein hinsichtlich Daten und Verfahren, während sie Checklisten ausgeben, um es einfacher für die Herausgeber zu machen, die statistischen Qualitäten neuer Studien zu inspizieren. Und das Center for Open Science von Nosek hat Standards für Transparenz, Offenheit und Reproduzierbarkeit erstellt (hier), welche Journale und Geldgeber übernehmen können, sowie Auszeichnungen für gutes Verhalten (hier).

Ultimativ „ist die Änderung von Anreizen über das gesamte Wissenschafts-Ökosystem ein Problem der Koordination“, sagte Nosek. „Institutionen, Geldgeber, Herausgeber, Gesellschaften und die Forscher selbst müssen ihre Erwartungen allesamt etwas ändern. Ohne dies wird keine Änderung effektiv sein“.

Munafo ist voller Hoffnung. „Wir haben Fortschritte gemacht, von der Beschreibung des Problems hin zum Verständnis von dessen Natur“, sagt er. „Das ist ein gutes Zeichen. Hoffen wir, dass es uns Hinweise gibt, wo wir Anreiz-Strukturen am effizientesten ändern können. Wir stecken mitten in einem faszinierenden natürlichen Experiment, wobei viele Innovationen eingeführt oder angestoßen werden. Was funktioniert und was nicht, und was populär ist und was nicht, bleibt abzuwarten“.

„Ich möchte nicht übermäßig pessimistisch sein“, sagt Smaldino. „Es gibt viele wirklich gute Wissenschaftler, die nach Arbeiten mit hoher Qualität streben. Es gibt immer mehr Individuen, die erkennen, dass Qualität tatsächlich bedeutsam ist. Ich hoffe einfach, dass Sentiment vorherrscht“.

Link: http://www.theatlantic.com/science/archive/2016/09/the-inevitable-evolution-of-bad-science/500609/

Übersetzt von Chris Frey EIKE




Gottes Perpetuum Mobile: Blockheizkraftwerk der Diakonie erzeugt mehr Energie als hineingesteckt wird

Nun werden die Wirkungsgrade bei Heizungen addiert, was zu recht kuriosen Ergebnissen führen kann, wie im Folgenden gezeigt werden soll.

Die Diakonie Puschendorf (Mittelfranken) hat jüngst ein Blockheizkraftwerk in Betrieb genommen. Der Dorfschreiber von Puschendorf (so ermittelte es die Recherche des Autors) verfasste dazu eine Reportage und leitete diese an die nordbayerischen Nachrichten weiter, damit diese über die gute Tat berichte.
Daten des BHKW der Diakonie: Betrieb mit Flüssiggas, elektrische Leistung: 20 kW, thermische Leistung: 44 kW

Eine Lokalausgabe der „nordbayerischen Nachrichten“ brachte am 07.10.2016 die Reportage: „Umwelt entlasten und Kosten sparen“.
Darin verkündet die Diakonie Puschendorf und der Heizungsbauer stolz: „Versprochen wird eine Energieeffizienz von etwa 96 % … Durch den zusätzlichen Einsatz der Brennwertnutzung bei den Abgasen lässt sich diese Energieeffizienz auf bis zu 104 % steigern, versichert der Heizungsinstallateur ..

Welch ein Glück, dass der Wirkungsgrad der Heizkörper von fast 100 % nicht auch noch dazu addiert wurde, sonst würde dieses Perpetuum Mobile fast vor Erfolg explodieren.

Eine solche Investition entscheidet und tätigt man heutzutage natürlich nicht mehr „einfach nur so“, sondern wegen einem höheren Auftrag:
„ … durch moderne Regelungstechnik … sind wir in der Lage, die benötigte Energie ... zum Wohle unserer Bewohner und mit der nötigen Verantwortung für unsere Umwelt und der Schöpfung unseres Gottes zu erzeugen“.
Da darf man auch Lücken zeigen:
Der ehrenamtliche Geschäftsführer „ … ist voller Zuversicht, dass sich die Investition innerhalb weniger Jahre amortisiert. Zahlen dazu gab es allerdings keine, ebenso wenig wie zu den Anschaffungskosten. … Die Überproduktion an Strom, die beispielsweise nachts anfällt, kann in das bestehende Stromnetz eingespeist werden“.

Etwas fehlt noch
Ein Artikel in deutschen Medien ohne den Hinweis auf das „giftige“ CO2 ist heute so wenig denkbar, wie ein fehlendes „Amen“ in der katholischen Kirche.
Im Artikel lautete es: „ … sowie einen geringeren CO2-Ausstoß soll die Umwelt spürbar entlastet werden …“.

Wenn alle Beteiligten inclusive der nordbayerischen Nachrichten wirklich überhaupt keine Ahnung haben, von was sie schwafeln, dann schädigt CO2 nicht nur wie üblich das Klima, sondern gleich auch noch die Umwelt.
Alle Hinweise auf den Sinn und die absolute Notwendigkeit von CO2 in der Atmosphäre als lebenswichtige Nahrung für alle Grünpflanzen dieser Erde sind einfach wirkungslos. Aber Fakt ist: Wer diesen das CO2 nimmt, „entlastet“ sie nicht, sondern tötet sie mit eiserner Konsequenz.
Wie soll eine Diakonie das aber jemals erfahren, so lange ihre oberste „Wissensinstanz“, der Papst Herrn Schellnhuber vom PIK als Berater hat.




Interessante Analyse der Klimasensitivität: Verursachen Variationen von CO2 tatsächlich eine signifikante globale Erwärmung?

Abbildung 1 zeigt die Keeling-Kurve, die einen stetigen CO2-Anstieg seit 1959 bis heute zeigt, gemessen am Observatorium auf dem Mauna Loa auf Hawaii:

Abbildung 1: Die Keeling-Kurve des atmosphärischen CO2, Mauna Loa

Man beachte, dass es einen Jahreszyklus gibt, der sich dem allgemein zunehmenden Trend überlagert. Mittelt man die monatlichen Aufzeichnungen dieser Zyklen für jedes Jahr, ergibt sich die Kurve in der kleinen eingebetteten Graphik. Diese zeigt, dass CO2 im Mittel eine maximale Konzentration im Mai erreicht, wenn sich auf der Nordhemisphäre nach der winterlichen Wachstumspause die Pflanzen wieder entwickeln, sowie eine minimale Konzentration im September-Oktober, wenn die Photosynthese während des Sommers einiges CO2 aus der Atmosphäre herausgefiltert hat. Der Unterschied zwischen Maximum und Minimum beträgt etwa 6 ppm.

Ich habe diese eingebettete Kurve für CO2 mit dessen Spitzenwert im Mai als Abbildung 2 reproduziert (blaue Kurve, alle Werte in Prozent):

Abbildung 2: Vergleich der mittleren monatlichen Werte von Temperatur (rot), Ozon (grün) und Kohlendioxid (blau) im Zeitraum 1975 bis 1998.

Ich habe die NOAA-Aufzeichnungen der nordhemisphärischen Temperaturanomalien (rote Kurve, oben) herangezogen und habe sie in der gleichen Weise für den 24-jährigen Zeitraum von 1975 bis 1998 bearbeitet, als sich der Globus dramatisch um fast 1°C erwärmt hatte. Man beachte, dass die Temperaturanomalie ihr Maximum im März erreicht, zwei Monate VOR dem Maximum der CO2-Kurve.

Falls also Variationen der CO2-Konzentration in der Atmosphäre irgendwelche Auswirkungen auf die Temperatur zeitigen würden, würde man erwarten, dass der CO2-Spitzenwert zusammen mit oder vor der Temperaturspitze erreicht wird. In Wirklichkeit zeigt sich diese CO2-Spitze aber erst zwei Monate danach. Dies zeigt, dass Variationen des atmosphärischen CO2-Gehaltes unmöglich einen signifikanten Einfluss auf die Temperatur haben kann. Es zeigt sich allerdings ein sehr kleiner Anstieg bei der Temperaturanomalie im Juni, was zeigt, dass CO2 tatsächlich eine sehr geringe Auswirkung auf die Temperatur hat, aber keine signifikante Auswirkung.

Was zeigt die grüne Kurve? Ich habe den Aufzeichnungen des Ozon-Abbaus von Arosa in der Schweiz der gleichen Behandlung unterzogen für den gleichen Zeitraum rapider Erwärmung von 1975 bis 1998. Man beachte, dass der Spitzenwert im März erreicht wird, also im gleichen Monat wie die Temperaturspitze. Beide Spitzenwerte sind ausgeprägt, was eine starke Relation zwischen diesen beiden Phänomenen nahelegt (der Korrelations-Koeffizient zwischen der roten und der grünen Kurve beträgt 0,92, d. h. er ist sehr hoch).

Dies bedeutet, dass es eine hohe Wahrscheinlichkeit dafür gibt, dass der Ozon-Abbau und nicht CO2 wirklich verantwortlich ist für globale Erwärmung. Der Zeitraum 1975 bis 1988 ist zufälligerweise auch der Zeitraum, in dem Fluorchlorkohlenwasserstoffe (FCKW) in der Atmosphäre freigesetzt worden sind mittels Spraydosen und leckender Kühlschränke, wie in der nächsten Graphik gezeigt wird (effektives Chlor heißt hier alle anthropogenen Quellen von Chlor und Brom):

Abbildung 3: Montreal-Protokoll

Bekanntlich führen die FCKWs im März (auf der Nordhemisphäre) zu polaren stratosphärischen Wolken, und Chlor und Brom verursachen Ozon Abbau und das Ozon-Loch. Das Montreal Protokoll trat in den neunziger Jahren in Kraft und beendete die fortgesetzte Ozon-Zerstörung, aber weil Chlor und Brom das Ozon katalytisch zerstören, befinden sich die meisten dieser Chemikalien immer noch in der Stratosphäre und bauen immer noch Ozon ab, wie obige Graphik zeigt. Daher wird es noch bis mindestens Mitte dieses Jahrhunderts dauern, bevor die Temperaturen wieder Normalwerte erreichen [Nanu, welche Normalwerte sollen das denn sein? Anm. d. Übers.]

Aber warum sollte Ozonabbau globale Erwärmung auslösen? Der einfache Grund hierfür ist, dass die Ozonschicht die Erde vor der solaren ultravioletten B-Strahlung schützt, die 48 mal wärmer ist als die Infrarotstrahlung der Erde. Wird das Ozon abgebaut, kann mehr UV-B bis zur Erdoberfläche durchdringen. Ende des 20. Jahrhunderts war dabei die Sorge vorherrschend, dass dies genetische Schäden und Sonnenbrand verursachen könne, aber niemand dachte daran, dass dies auch zu globaler Erwärmung führen könnte [komisch, dass da bisher noch keiner drauf gekommen ist! Anm. d. Übers.]. Allerdings ist das offensichtlich der Fall, wie die zweite Graphik zeigt.

All dies erklärt sehr gut, warum die Temperatur zum Ende des 20. Jahrhunderts so stark gestiegen ist und warum dieser Anstieg seitdem zum „Stillstand“ gekommen ist (als ob die Erde relativ zu den Klimamodellen etwas Falsches gemacht hat). Aber warum war es im Jahre 2015 erneut zu einem Aufwärts-Temperatursprung gekommen?

Möglicherweise ist die Ursache hierfür, dass einer der nicht-explosiven Vulkane Islands, der Bardabunga, von Mitte 2014 bis Anfang 2015 die größte basaltische Eruption seit Laki im Jahre 1783 hingelegt hat. Die ausgeflossene Lava setzte Chlor und Brom als Hydrogenchlorid und Hydrogenbromid frei, was die gleiche Auswirkung auf die Ozonschicht hatte wie FCKW aus Spraydosen. Sie bauten die Ozonschicht ab, so dass mehr solare UV-B-Strahlung zur Erdoberfläche gelangen konnte. Dieses Ereignis ist jedoch Vergangenheit, so dass sich jetzt wieder „normale“, d. h. „Stillstands“-Bedingungen einstellen können und werden.

Hier sollte noch erwähnt werden, dass explosive Vulkane bekanntlich zu einer globalen Abkühlung führen, weil sie eine Menge Schwefel-Aerosole in die Stratosphäre blasen, welche das Sonnenlicht hinweg reflektieren. Zusammen haben explosive und nicht explosive Vulkane jeweils globale Abkühlung und Erwärmung verursacht während der meisten Zeit der geologischen Geschichte, wie eine sorgfältige Begutachtung geologischer Aufzeichnungen zeigt. [So einfach soll das sein? Keinerlei solare Zyklen? Kaum zu glauben! Anm. d. Übers.]

Unter dem Strich steht, dass die Dämonisierung von CO2 wahrscheinlich ein Fehler und völlig unnötig ist, führte dies doch zu Plänen, alle Arten fossiler Treibstoffe zu ersetzen durch weniger effiziente, teurere, sich umweltlich verheerend auswirkende erneuerbare Energiequellen. Die Wahrscheinlichkeit ist hoch, dass wir mit CO2 dem falschen Ziel nachstreben, und das bedeutet nichts Gutes. Weit wichtiger scheint es sicherzustellen, dass das Montreal-Protokoll gewissenhaft befolgt wird und dass FCKWs genau überwacht werden.

Nur der Vollständigkeit halber: Ich bin kein Freund irgendwelcher Industrien fossiler Treibstoffe, in die ich keinerlei Investments habe. Mir geht es einfach darum, die Wissenschaft ordnungsgemäß durchzuführen.

Anmerkung von Anthony Watts: Als ich diesen Beitrag und dessen Titel das erste Mal sah, dachte ich, dass er vielleicht ein weiteres jener „Totschlag“-Argumente ist. Aber nach der Lektüre und vor dem Hintergrund des Autors kam ich zu der Überzeugung, dass er gehaltvoll und der Diskussion würdig ist. Ich habe der Überschrift das Wort „signifikant“ hinzugefügt, weil der Autor in dem Beitrag schreibt, dass eine geringe Erwärmung erkennbar ist. Zum Autor:

DAVID BENNETT LAING

Author, geologist, Earth systems scientist, ecologist, botanist, professor, sailor, alpine skier, retired, Aspie, Dartmouth ’62, Harvard ’72, progressive online activist, Penobscot Bay, Maine, Charlotte Harbor, Florida, Rio Bueno, Jamaica, park ranger, forest ranger, folksinger, copy editor, Seafarer 38 ketch, house/barn/cottage on 3.5 acres with ocean view, no debts, no regrets

Link: https://wattsupwiththat.com/2016/10/10/interesting-climate-sensitivity-analysis-do-variations-in-co2-actually-cause-global-significant-warming/

Übersetzt von Chris Frey EIKE