Dr. Jay Lehr
Der empirische Wissenschaftler führt kontrollierte Experimente durch und führt genaue, unvoreingenommene Aufzeichnungen über alle beobachtbaren Bedingungen zum Zeitpunkt der Durchführung des Experiments. Wenn ein Forscher ein wirklich neues oder bisher unbeobachtetes Naturphänomen entdeckt hat, sollten andere Forscher – mit Zugang zu seinen Aufzeichnungen und einigen selbst entwickelten Geräten – in der Lage sein, diese Entdeckung zu reproduzieren oder zu bestätigen. Wenn genügend Bestätigungen vorliegen, erkennt die wissenschaftliche Gemeinschaft schließlich an, dass das Phänomen real ist, und passt die bestehende Theorie an die neuen Beobachtungen an.
Die Validierung der wissenschaftlichen Wahrheit erfordert eine Replikation oder Reproduktion. Replizierbarkeit bedeutet in der Regel, dass das Ergebnis eines Experiments in einer unabhängigen Studie von verschiedenen Forschern mit unterschiedlichen Daten erzielt wird, während Reproduzierbarkeit bedeutet, dass verschiedene Forscher die gleichen Daten, Methoden und/oder Computercodes verwenden, um zu den gleichen Ergebnissen zu gelangen.
Doch heute funktioniert der wissenschaftliche Prozess der Replikation und Reproduktion nicht mehr richtig. Ein großer Teil der wissenschaftlichen Behauptungen in der veröffentlichten Literatur ist nicht repliziert oder reproduziert worden. Man schätzt, dass die Mehrheit dieser veröffentlichten Behauptungen, die nicht repliziert oder reproduziert werden können, in Wirklichkeit falsch sind.
Eine außerordentliche Anzahl wissenschaftlicher und sozialwissenschaftlicher Disziplinen liefert nicht mehr zuverlässig wahre Ergebnisse, ein Zustand, der gemeinhin als Irreproduzierbarkeits-Krise bezeichnet wird. Eine beträchtliche Mehrheit von 1500 aktiven Wissenschaftlern, die kürzlich von der Zeitschrift Nature befragt wurden, bezeichnete die akute Situation als „Krise“. Die völlig unangemessenen Leistungsanreize in der wissenschaftlichen Welt tragen einen Großteil der Schuld an diesem katastrophalen Versagen.
Politiker und Bürokraten handeln in der Regel, um ihre eigenen Interessen zu maximieren, anstatt als uneigennützige Diener des Gemeinwohls zu agieren. Dies gilt insbesondere für Wissenschaftler, Peer-Review-Gutachter und Regierungsexperten. Die verschiedenen Teilnehmer am wissenschaftlichen Forschungssystem dienen alle ihren eigenen Interessen, da sie den Anreizen des Systems erliegen.
Gut publizierende Universitätsforscher verdienen sich durch die Veröffentlichung aufregender neuer positiver Ergebnisse eine Festanstellung, eine Beförderung, einen Wechsel an eine renommiertere Universität, Gehaltserhöhungen, Stipendien, berufliches Ansehen und öffentliche Wertschätzung. Die gleichen Anreize wirken sich auf die Herausgeber von Zeitschriften aus, die durch die Veröffentlichung von als aufregend empfundenen neuen Forschungsergebnissen Anerkennung für ihre Zeitschrift und persönliche Auszeichnungen erhalten – auch wenn die Forschungsergebnisse nicht gründlich überprüft wurden.
Geldgeber wollen spannende Forschung finanzieren, und staatliche Geldgeber haben den zusätzlichen Anreiz, dass spannende Forschung mit positiven Ergebnissen die Erweiterung des Auftrags ihrer Organisation unterstützt. Amerikanische Universitätsverwaltungen wollen Forschungsprojekte fördern, von denen sie profitieren, indem sie die Gemeinkosten – häufig den größten Teil des Förderbetrags – erhalten. Als jemand, der dies aus erster Hand erfahren und gesehen hat, wird es den Leser verblüffen, welch großer Teil der meisten Forschungszuschüsse als Gemeinkosten an die Universität geht, anstatt die eigentlichen Forschungskosten zu unterstützen.
All diese Anreize belohnen veröffentlichte Forschung mit neuen positiven Behauptungen, aber nicht unbedingt reproduzierbare Forschung. Forscher, Herausgeber, Geldgeber, Bürokraten, Universitätsverwaltungen – sie alle haben einen Anreiz, nach scheinbar aufregenden neuen Forschungsergebnissen zu suchen, die Geld, Status und Macht bringen. Es gibt nur wenige oder gar keine Anreize, ihre Arbeit zu überprüfen. Vor allem haben sie wenig Anreiz, die Forschung zu reproduzieren und zu überprüfen, ob die aufregende Behauptung Bestand hat, denn wenn dies nicht der Fall ist, verlieren sie Geld, Status und Prestige.
[Hervorhebung vom Übersetzer]
Die Anreize der wissenschaftlichen Welt für neue Erkenntnisse und nicht für reproduzierbare Studien haben einen drastischen Einfluss darauf, was zur Veröffentlichung eingereicht wird. Wissenschaftler, die versuchen, ihre Karriere auf der Überprüfung alter Erkenntnisse oder der Veröffentlichung negativer Ergebnisse aufzubauen, werden wahrscheinlich keinen beruflichen Erfolg haben. Das Ergebnis ist, dass Wissenschaftler keine negativen Ergebnisse zur Veröffentlichung einreichen. Einige negative Ergebnisse landen in der Aktenschublade. Andere verwandeln sich irgendwie in positive Ergebnisse, weil die Forscher bewusst oder unbewusst ihre Daten und ihre Analysen frisieren (als wissenschaftliche Modellierer nennen wir das „Tuning“, ein Fachwort für Betrug). Sie führen auch nicht viele Replikationsstudien durch oder veröffentlichen sie, da die Anreize der wissenschaftlichen Welt auch diese Aktivitäten nicht belohnen.
Das Konzept der statistischen Signifikanz wird so sehr strapaziert, dass buchstäblich Hunderte, wenn nicht Tausende von nutzlosen Arbeiten, die diese Signifikanz für sich beanspruchen, überall erscheinen.
Forscher versuchen festzustellen, ob sich die von ihnen untersuchten Zusammenhänge von dem unterscheiden, was allein durch Zufall erklärt werden kann, indem sie Daten sammeln und Hypothesentests durchführen, die auch als Tests der statistischen Signifikanz bezeichnet werden. Meistens beginnen sie damit, die Wahrscheinlichkeit zu testen, dass es keinen tatsächlichen Zusammenhang zwischen zwei Variablen gibt, was als „Nullhypothese“ bezeichnet wird. Wenn diese Hypothese nicht zutrifft und es wahrscheinlich ist, dass ein Zusammenhang besteht, wird eine andere Hypothese aufgestellt. Wie gut die Daten die „Nullhypothese“ (kein Zusammenhang) unterstützen, zeigt eine Statistik, die als p-Wert bezeichnet wird. Liegt der p-Wert unter 5 % oder 0,05, wird davon ausgegangen, dass ein Zusammenhang zwischen den untersuchten Variablen bestehen könnte.
Die zentrale Rolle der Regierungen in der Wissenschaft, sowohl bei der Finanzierung wissenschaftlicher Forschung als auch bei der Verwendung wissenschaftlicher Forschung zur Rechtfertigung von Vorschriften, trägt in hohem Maße dazu bei, dass die fadenscheinige statistische Signifikanz in der gesamten akademischen Welt zunimmt. Innerhalb einer Generation hat sich die statistische Signifikanz von einer nützlichen Abkürzung, die Forscher in der Landwirtschaft und der Industrie benutzten, um zu entscheiden, ob sie ihre derzeitigen Verfahren beibehalten oder zu etwas Neuem übergehen sollten, zu einer Voraussetzung für Regulierung, staatliche Zuschüsse, Festanstellungen und jede andere Form von wissenschaftlichem Prestige entwickelt und ist auch für Veröffentlichungen unerlässlich.
Viele weitere Wissenschaftler verwenden eine Vielzahl von statistischen Verfahren mit mehr oder weniger sträflicher Nachlässigkeit, darunter:
*unrichtige statistische Methodik
*voreingenommene Datenmanipulation, die zu den gewünschten Ergebnissen führt
*Auswahl von Messwerten, die statistisch signifikant sind, und Ignorieren von Messwerten, die nicht signifikant sind
*unzulässige Manipulationen von Forschungsverfahren
Wieder andere führen statistische Analysen durch, bis sie ein statistisch signifikantes Ergebnis finden, und veröffentlichen dieses Ergebnis. Dies wird als „p-hacking“ bezeichnet. Viel zu viele Forscher geben ihre Methoden unklar an und lassen den uninformierten Leser annehmen, dass sie tatsächlich einem strengen wissenschaftlichen Prozess gefolgt sind.
Der heimtückischste aller wissenschaftlichen Betrügereien ist p-HARKING. Das bedeutet, dass ein Wissenschaftler eine Hypothese erst dann aufstellt, wenn er alle Daten gesammelt hat, die zu dem gewünschten Ergebnis führen. Ein offensichtlicheres Wort dafür ist CHEATING [to cheat = schummeln]. Nicht reproduzierbare Forschungshypothesen, die durch HARKING zustande kommen, treiben ganze Disziplinen in den Abgrund.
Publikationsverzerrungen und „p-harking“ haben die wissenschaftliche Forschung insgesamt in Mitleidenschaft gezogen. Darüber hinaus zeigen Umfragen seit Jahrzehnten, dass Forscher wahrscheinlich keine negativen Ergebnisse ihrer Studien veröffentlichen werden.
Eine falsche Forschungsbehauptung kann zur Grundlage für eine ganze Reihe von Veröffentlichungen werden, die durchweg falsch sind und dennoch zur anerkannten Wahrheit werden. Wir können nicht genau sagen, welche Forschungsarbeiten von diesen Fehlern betroffen sind, solange Wissenschaftler nicht alle veröffentlichten Forschungsarbeiten replizieren. Wir verfügen jedoch über ausgefeilte statistische Strategien, die es uns ermöglichen, bestimmte Behauptungen zu diagnostizieren, die eine staatliche Regulierung unterstützen. Eine solche Methode – ein Härtetest für statistische Betrügereien – ist die Darstellung von p-Werten, die im Handbuch der National Association of Scholars, SHIFTING SANDS, ausführlich beschrieben wird. Ein kurzes Papier zurück, das ich nicht zu sehr empfehlen kann.
Hinweis: Teile dieses Aufsatzes wurden mit Genehmigung der National Association of Scholars und ihrer Autoren Peter Wood, Stanley Young, Warren Kindzierski und David Randall aus dem NAS-Buch SHIFTING Sands entnommen.
Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.
Link: https://www.cfact.org/2022/05/16/irreproducible-science-part-two/
Übersetzt von Christian Freuer für das EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Eine großartige Bestätigung meiner eigenen Erkenntnisse: Wissenschaftler sind auch nur Menschen. Damit kann, oder muß ich von ihnen mit Allem rechnen.
Genesis ist das wichtigste Sachbuch, das wir haben. Es ist besser, auf dieser Basis die Welt zu erforschen um vernünftige Erkenntnisse zu erlangen. Als Gott sprach, die Erde bringe Grünzeug hervor, da war schon genug CO2 in der Atmosphäre. Damit wir nicht die Wälder bis zum letzten Stecken verheizen müssen, hat ER Kohle, Erdgas und das wahrscheinlich unversiegbare, abiotische Erdöl in riesigen Lagerstätten eingebaut. Bei deren Verbrauch wird das für die wachsende Menschheit notwendige Pflanzenwachstum CO2 freigesetzt.
Wenn alle Reichen in den Himmel kämen, hätten wir alle auf Erden keine Not.
Ein Musterbeispiel für „behauptete Theorien“ ist die „berühmt-berüchtigte“ Darstellung KT97!
Sie behauptet, TOA werden im Mittel 239 W/m² abgestrahlt. Davon kommen angeblich 169 + 30 = 199 W/m² irgendwoher aus der Atmosphäre (woher genau?) und nur 40 W/m² kämen von der Oberfläche durch das sog. atmosphärische Fenster. Also ca. 83% aus Luftraum zu 17% vom Boden!
Betrachtet man gemessene Spektren, die vom Satellit (z. B. NIMBUS) registriert wurden, haben die durchwegs das typische Aussehen eines kontinuierlichen Planck-Spektrums mit einigen Eindellungen. Wenn man ein Spektrum dieses Aussehens vom Satellit empfangen kann, stammt es direkt von der Oberfläche. Weil nur die Oberfläche in der Lage ist, ein kontinuierliches von der Temperatur abhängiges Spektrum nach Planck abzustrahlen, welches leistungsmäßig annähernd der Formel von Stefan-Boltzmann entspricht. Bei so einem Spektrum kann man anhand der Wellenlänge (μm), bei der das Maximum auftritt, auf die Temperatur der Oberfläche schließen und damit zwangsweise auf die Leistung der abgegebenen Strahlung. Wenn also das Maximum der Kurve bei etwa 10 μm liegt, handelt es sich um eine Bodentemperatur von etwa 27°C oder 300 K und daher um eine Abstrahlung von etwa 460 W/m². Und wegen der Speicherfähigkeit der Oberfläche bleiben auch die Nachtwerte auf ähnlichem Niveau wie die Tagwerte.
Alle gasförmigen Strahlungsquellen innerhalb der Atmosphäre können kein kontinuierliches Spektrum abgeben, es sind sog. Bandenstrahler, die auf ganz spezifischen und typischen Wellenlängen absorbieren und strahlen, CO2 hauptsächlich im Bereich um 15 μm, was wie eine Zerstreuungslinse wirkt und eine Eindellung um 15 μm bewirkt .
Es gibt also nur zwei Möglichkeiten. Entweder sind die gemessenen Satellitenspektren Fake oder die Angaben in KT97 sind es. Ich tendiere stark zu letzterem.
Jedenfalls besteht für Verfechter der KT97-Darstellung akuter Erklärungsbedarf! Woher meinen sie, kommen die 199 W/m² aus der Atmosphäre konkret und wie kommt die Planck-Form des Spektrums zustande?
Anmerkung: Bei Spektrumsdarstellung gem. Wellenzahl (1/cm) ist zu beachten, daß die Leistung in W/m²/sr *cm angegeben wird, wodurch das Kurvenmaximum nicht an der selben Stelle liegt, wie bei Darstellung nach Wellenlänge (μm), wo die Leistungsangabe als W/m²/sr/μm erfolgt. Zur Analyse ist m. E. die Darstellung gem. Wellenlänge besser geeignet. Bei ihr sieht man, daß das Kurvenmaximum im Bereich des atmosphärischen Fensters zwischen ca. 8 und 13 μm liegt. Mit Spektralrechnern kann man Umwandlungen der Darstellungsform vornehmen:
z. B.: http://www.spectralcalc.com/blackbody_calculator/blackbody.php
stefan strasser am 25. Mai 2022 um 10:17
Es gibt noch eine dritte Möglichkeit: Sie irren sich. Ein Blick ins Happer Papier könnte Aufklärung bringen (z.B. hier). Dort wird das an TOA sichtbare Spektrum aufgrund physikalischer Gesetzmäßigkeiten berechnet und stimmt gut mit dem überein, was die Satelliten sehen.
Marvin Müller
Habe ich Sie schon einmal gefragt, ob Sie sinnerfassend lesen können? Sie sollten das üben!
Gerade weil Satelliten solche kontinuierliche Spektren messen, was Happer berechnet und auch ich behauptet habe, stellt sich die Frage, wie können gem. KT97 davon ca. 83% aus dem Luftraum und nur 17% vom Boden stammen? Das paßt nicht zusammen! Darum geht es!
Ein Spektrum mit der typischen kontinuierlichen Planck-Struktur kann nur von der Oberfläche stammen, weil in der Atmosphäre nichts derart kontinuierlich spektral strahlen kann! CO2 etwa strahlt um 15 μm als Bandenstrahler, nicht kontinuierlich!
stefan strasser am 25. Mai 2022 um 19:42
Das von Happer berechnete Spektrum entsteht dadurch, dass Treibhausgase die aus unteren Schichten kommende Strahlung in bestimmten Banden absorbieren und dann entsprechend ihrer Temperatur in diesen Banden wieder emittieren. Dort stammen also die Teile des Spektrums, die mit CO2 gekennzeichnet sind, von CO2-Molekühlen in höheren Schichten und nicht von der Erdoberfläche. Gleiches gilt analog für H2O und CH4, die in dem Papier betrachtet werden.
Kann es sein, dass Sie Happers Arbeit nicht verstanden haben?
@Marvin Müller am 25. Mai 2022 um 14:14
Zitat: Es gibt noch eine dritte Möglichkeit: Sie irren sich.
Nein, der Herr Strasser irrt sich definitiv nicht.
Das von Happer berechnete Spektrogramm hat gar nichts mit der Frage zu tun. Zudem sind die Werte der so genannten „Emissionshöhen“ bei Happer nicht korrekt.
@stefan strasser am 25. Mai 2022 um 10:17
Zitat: Es gibt also nur zwei Möglichkeiten. Entweder sind die gemessenen Satellitenspektren Fake oder die Angaben in KT97 sind es. Ich tendiere stark zu letzterem.
Es ist definitiv letzte Aussage.
Ganz exakt erhält man aus den bisherigen Multiwinkelmessungen folgende Werte im globalen Maßstab (flächengewichteter Mittelwert):
+ Transmission der Strahlung der Oberfläche durch die Atmosphäre zur Umgebung: 67,4 W/m²
+ Transmission der reflektierten Strahlung der Atmosphäre an der Oberfläche durch die Atmosphäre zur Umgebung: 1,82 W/m²
+ Transmission der gestreuten Strahlung der Oberfläche in der Atmosphäre durch die Atmosphäre zur Umgebung: 1,77 W/m²
+ Emission der Atmosphäre zur Umgebung: 168,2 W/m²
Die Summe ergibt: 67,4 + 1,82 + 1,77 + 168,2 = 239,2 W/m².
Auch die Messungen von CERES kommen auf einen Wert von 66 – 68 W/m² für die Transmission der Strahlung der Oberfläche durch die Atmosphäre zur Umgebung/Weltraum.
Die entsprechenden strahlungs-physikalischen Parameter für die terrestrische Strahlung, die aus den Multiwinkelmessungen erhalten werden, sind:
+ Emissionsgrad der Oberfläche: ε(sfc) = 0,96
+ Transmissionsgrad der Atmosphäre: τ(atm) = 0,18
+ Streuungsgrad der Atmosphäre: ω(atm) = 0,035
+ Emissionsgrad der Atmosphäre: ε(atm) = 0,865
Der Fehler der Multiwinkelmessungen liegt bei maximal ±0,3 W/m².
Mfg
Werner Holtz
„P-hacking“ tritt wohl häufiger auf. Ich kann mich des Eindrucks nicht erwehren, dass dies bei der Suche nach dem Higgs-Boson („Gottes-Teilchen“) im LHC am CERN der Fall war und nicht zuletzt bei der ganzen Corona-Geschichte.
Kaum, das Higgs-Boson hat Peter Higgs 1963 schon eingeführt.
Das Gottesteilchen war mit dem Uratom seit 1948 durch die Urknalltheorie festgelegt. Aus dem Uratom ist das ganze Universum hervorgegangen. Und weil dieses Uratom weder sich selbst erschaffen haben, noch allwissend und allmächtig sein konnte, ist Gott als Schöpfer erwiesen. Das mußte sogar Stephen Hawkins in seinem Buch „Eine kurze Geschichte der Zeit“ bestätigen.
Die Suche nach noch allmächtigerer Vormaterie erscheint mir —na ja?
Interessant, richtig und überzeugend! Wie könnte es auch sonst eine Potsdamer Alarm-Forschung geben mit dem ersten Direktor Schellnhuber, dem Planeten-Selbstverbrenner und Kanzler*innen-Verdummer? Nachdem er zuvor noch an einer Veröffentlichung beteiligt war, die bei der Auswertung zahlreicher Temperatur-Messdaten keine Temperatur-Erhöhung fand. Er hat daraus rasch gelernt, wie seine weitere Karriere zeigte. Alarm-Parolen, Erfindung von Kipppunkten und Hysterisierung der Straße – dazu braucht es keine seriöse Wissenschaft. Im Gegenteil, dabei stört sie nur, die seriöse Wissenschaft!