Als Beweis dafür, dass unbezahlte anonyme Gutachten jeden Cent wert sind, hat der 217 Jahre alte Wissenschaftsverlag Wiley 11.300 gefakte Artikel [wissenschaftlich nicht begründet, … nicht haltbar – der Übersetzer] „begutachtet“, ohne es überhaupt zu bemerken. Das ist nicht nur Betrug, das ist eine ganze Industrie. Nackte „Kauderwelsch-Sandwiches“ haben das Peer Review bestanden, und die Expertengutachter haben nicht einmal mit der Wimper gezuckt.
Die Regierung [deep state] und das große Geld haben die Wissenschaft vereinnahmt und erdrosselt. Je mehr Geld sie hineinpumpen, desto schlimmer wird es. John Wiley and Sons ist ein 2-Milliarden-Dollar-Unternehmen, aber wurde von kriminellen Banden benutzt, um falsche „Wissenschaft“ als etwas Echtes auszugeben.
Die Dinge sind so schlimm, dass falsche Wissenschaftler professionelle Schummeldienste bezahlen, die KI verwenden, um Artikel zu erstellen und die Worte so zu verfälschen, dass sie „originell“ aussehen. So wird aus einem Artikel über „Brustkrebs“ eine Entdeckung über „Brustgefahr“ und aus einem „naiven Bayes“-Klassifikator wird ein „leichtgläubiger Bayes“. Eine Ameisenkolonie wurde als „unterirdischer, gruseliger Krabbelstaat“ bezeichnet.
Und was bedeutet das Verhältnis zwischen „flag to clamor“? Nun, altmodische Wissenschaftler würden es vielleicht „Signal zu Rauschen“ nennen. Der Unsinn nimmt kein Ende.
Ein „zufälliger Wald“ ist nicht immer dasselbe wie ein „unregelmäßiger Hinterwald“ oder ein „beliebiges Baumgebiet“ – insbesondere, wenn Sie eine Arbeit über maschinelles Lernen und Entscheidungsbäume schreiben.
Das Schockierendste ist, dass kein menschliches Gehirn die Worte auch nur spät am Freitagabend noch einmal durchgesehen hat, bevor sie das heilige Peer Review bestanden und auf die heiligen Seiten der wissenschaftlichen Literatur gelangten. Selbst ein weingetränkter Student im dritten Jahr mit Berufserfahrung hätte sicherlich die Augenbrauen hochgezogen, als aus lokaler Durchschnittsenergie „territoriale normale Vitalität“ wurde. Und als aus einem Zufallswert eine „unregelmäßige Wertschätzung“ wurde. Lassen Sie mich einfach eine unregelmäßige Schätzung für Sie in Python generieren? [.. Programmiersprache]
Wenn es so etwas wie wissenschaftliche Stand-up-Comedy gäbe, könnten wir jede Menge Material bekommen, nicht indem wir ChatGPT bitten, lustig zu sein, sondern indem wir es bitten, zu schummeln. Wo sonst könnte man über einen mittleren quadratischen Fehler sprechen?
Wiley – ein Mega-Verlag für wissenschaftliche Artikel – hat zugegeben, dass 19 Zeitschriften aufgrund von potenziellem Betrug so wertlos sind, dass sie geschlossen werden müssten. Und die Branche entwickelt jetzt KI-Tools, um die KI-Fälschungen zu erkennen (gibt Ihnen das ein gutes Gefühl?)
Flut an Pseudowissenschaft führt zur Schließung mehrerer Fachzeitschriften, durch Betrug verseucht
EMIL LENDOF, THE WALL STREET JOURNAL
By Nidhi Subbaraman, May 14, 2024
Die Verlage führender wissenschaftlicher Zeitschriften sind mit gefälschten Studien überschwemmt worden, was zu Tausenden von Rückzügen und Einnahmeverlusten in Millionenhöhe geführt hat. Am schlimmsten betroffen ist Wiley, ein 217 Jahre alter Verlag mit Sitz in Hoboken, New Jersey, der die Einstellung von 19 Journals bekannt gegeben hat, von denen einige von groß angelegtem Forschungsbetrug betroffen waren.
In den letzten zwei Jahren hat Wiley mehr als 11.300 fragwürdige Arbeiten zurückgezogen und vier Zeitschriften eingestellt. Wiley ist nicht der einzige Verlag: Mindestens zwei weitere Verlage haben jeweils Hunderte fragwürdiger Arbeiten zurückgezogen. Mehrere andere haben kleinere Gruppen fragwürdiger Arbeiten zurückgezogen.
Obwohl dieser groß angelegte Betrug nur einen kleinen Prozentsatz der Einreichungen bei Fachzeitschriften betrifft, bedroht er die Legitimität der fast 30 Milliarden Dollar schweren wissenschaftlichen Verlagsbranche und die Glaubwürdigkeit der Wissenschaft als Ganzes.
Wissenschaftliche Arbeiten enthalten normalerweise Zitate, welche die Vorarbeit würdigen, die der Forschung zugrunde lag. Doch die verdächtigen Arbeiten enthielten Listen mit irrelevanten Referenzen. Mehrere Arbeiten enthielten technisch klingende Passagen, die mittendrin eingefügt waren, was Bishop als „ KI-Kauderwelsch-Sandwich “ bezeichnete. Fast identische Kontakt-E-Mails in einer Gruppe von Studien waren alle auf eine Universität in China registriert, an der nur wenige, wenn überhaupt, der Autoren tätig waren. Es schien, als stammten sie alle von derselben Quelle.
Eines dieser Tools, der „Problematic Paper Screener“, wird von Guillaume Cabanac betrieben, einem Informatikforscher, der an der Université Toulouse III-Paul Sabatier in Frankreich das wissenschaftliche Publizieren erforscht. Der Screener durchsucht die gesamte veröffentlichte Literatur – rund 130 Millionen Aufsätze – und sucht nach einer Reihe von Warnsignalen, darunter auch “tortured phrases.” [~ gequälte Formulierungen].
Cabanac und seine Kollegen stellten fest, dass Forscher, die Plagiatsdetektoren umgehen wollten, wichtige wissenschaftliche Begriffe durch Synonyme aus automatischen Textgeneratoren ersetzten, was zu komisch unpassenden Formulierungen führte. Aus „Brustkrebs“ wurde „Brustgefahr“, aus „Fluiddynamik“ wurde „klebriger Strom“, aus „künstlicher Intelligenz“ wurde „gefälschtes Bewusstsein“. Das Tool ist öffentlich verfügbar.
„Generative KI hat ihnen gerade einen Lottogewinn beschert“, sagte Eggleton von IOP Publishing. „Sie können es wirklich billig und in großem Maßstab bekommen und die Erkennungsmethoden sind nicht dort, wo wir sie brauchen. Ich kann nur sehen, dass diese Herausforderung immer größer wird.“
Auch der australische Sender ABC schrieb darüber, allerdings nur, weil er sich Sorgen über den Vertrauensverlust der Öffentlichkeit in seine Lieblingsuniversitäten macht:
Für ABC ist Peer Review wie die Bibel und Universitäten sind die Kirche. Die Öffentlichkeit muss daran glauben!
Also sucht ABC nach Ausreden … Ach! Diese armen, armen Universitäten, die gezwungen wurden, Milliardenunternehmen zu werden, indem sie Kindern reicher chinesischer Familien faktisch australische Staatsbürgerschaften verkaufen. Wenn sie nur mehr Geld bekämen, müssten sich ihre Vizekanzler nicht mit Millionengehältern und der Bestrafung von Professoren, die auf Betrug aufmerksam machen , zufrieden geben , sondern hätten stattdessen Zeit, Nachforschungen anzustellen und den Betrug zu verhindern.
Wileys „Fake Science“-Skandal ist nur das jüngste Kapitel einer umfassenderen Vertrauenskrise, mit der sich Universitäten auseinandersetzen müssen
Von Linton Besser, ABC News
Es [das Wiley-Debakel] veranschaulicht auch, dass es sich lediglich um eine weitere Front in einer viel umfassenderen Vertrauenskrise handelt, mit der Universitäten und wissenschaftliche Institutionen weltweit konfrontiert sind.
Seit Jahrzehnten sind die Lehrqualität und die akademische Integrität an Universitäten in Gefahr. Da sie keine öffentlichen Gelder mehr erhalten, haben sie sich auf das äußerst lukrative Geschäft des Verkaufs von Studienabschlüssen an ausländische Studierende verlegt.
Da die tertiären Bildungseinrichtungen mit Schülern zu kämpfen haben, deren Englischkenntnisse unzureichend sind, sind sie an routinemäßige Betrugs- und Plagiatsskandale gewöhnt. Ein weiterer Betrug, der im Internetzeitalter perfektioniert wurde.
Diese Infektion – die Kommerzialisierung der Wissenschaft, die Industrialisierung des Betrugs – hat sich mittlerweile bis ins Herz der wissenschaftlichen, höheren Forschung ausgebreitet.
Da ihre Karrieren vom Glanz ihrer von Experten begutachteten Titel geprägt sind, stehen Forscher auf der ganzen Welt unter enormem Publikationsdruck. Leiden die Forscher, die gezwungen sind, für gefälschte Veröffentlichungen zu zahlen, nur damit sie „ihre Arbeit machen“ können? Entlassen Sie sie alle.
Die ABC ist einer der Gründe, warum die Wissenschaft bis ins Mark korrupt ist. Die ABC Science Unit wird dafür bezahlt, Pseudowissenschaft aufzudecken, doch stattdessen bietet sie Deckung für die heidnische Hexerei, die als moderne Forschung durchgeht.
Der Verfall bei Wiley begann vor Jahrzehnten, wurde aber aufgedeckt, als das Unternehmen 298 Millionen US-Dollar für einen ägyptischen Verlag namens Hindawi ausgab. Wir könnten sagen, wir hoffen, dass keine Babys durch gefälschte Artikel verletzt werden, aber wir wissen, dass schlechte Wissenschaft bereits Menschen tötet. Was wir brauchen, sind keine „von Experten begutachteten“ Artikel, sondern eine echte, persönliche Debatte. Nur wenn die besten beider Seiten Fragen mit den Daten beantworten müssen, werden wir echte Wissenschaft bekommen:
Im März gab das Unternehmen gegenüber der NYSE einen Einbruch der Forschungseinnahmen um 9 Millionen US-Dollar bekannt, nachdem es gezwungen war, die Veröffentlichung sogenannter „Special Issue“-Journals von Hindawi [Nachdrucke], was es 2021 für 298 Millionen US-Dollar erworben hatte, zu „pausieren“.
In der Erklärung hieß es, das Hindawi-Programm, das rund 250 Zeitschriften umfasste, sei „vorübergehend ausgesetzt worden, da in bestimmten Sonderausgaben kompromittierte Artikel enthalten waren“.
Viele dieser verdächtigen Arbeiten gaben vor, seriöse medizinische Studien zu sein, darunter Untersuchungen zur Arzneimittelresistenz bei Neugeborenen mit Lungenentzündung und zum Wert von MRT-Scans bei der Diagnose früher Lebererkrankungen. Zu den betroffenen Zeitschriften gehörten Disease Markers, BioMed Research International und Computational Intelligence and Neuroscience.
Das Problem wird immer dringlicher. Die jüngste Explosion der künstlichen Intelligenz erhöht den Druck noch weiter. Ein Forscher am University College London fand kürzlich heraus, dass mehr als ein Prozent aller im letzten Jahr veröffentlichten wissenschaftlichen Artikel – rund 60.000 Artikel – wahrscheinlich von einem Computer geschrieben wurden.
In manchen Bereichen ist es sogar noch schlimmer. Fast jede fünfte in den letzten vier Jahren veröffentlichte Informatik-Arbeit wurde wahrscheinlich nicht von Menschen geschrieben.
Auch wenn jede fünfte Informatikarbeit von Computern geschrieben wird, ist dies nur die Spitze des Eisbergs der Fäulnis, die im Kern der „Peer-Review-Forschung“ steckt. Die wahre Fäulnis sind nicht die kleinen Betrüger, die Arbeiten verfassen, die niemand liest, um ihren Lebenslauf aufzupolieren. Es sind die institutionellen Parasiten, die Milliarden von Steuergeldern nehmen, um modellierten Müll zu produzieren, der den Diebstahl von Billionen rechtfertigen soll. Aber das ist eine andere Geschichte.
PS: Hätten Sie, dass wissenschaftliche Zeitschriften eine 30-Milliarden-Dollar-Industrie sind?
Übersetzt durch Andreas Demmig
In der sog. KI, ein Marketinggag, kann keine menschliche Intelligenz stecken. Das ist unmöglich, eine infame Lüge.
Es wird unternommen, aus Überheblichkeit, Naivität, blindem Fortschrittsglauben und vornehmlich, um eine Pseudo-Autorität aufzubauen, um die Massen zu verführen.
Wer schon einmal einen Lehrstuhl von innen gesehen hat, der weiß, das nicht alle Zitate nachgeprüft werden. So jedenfalls meine Erfahrung. Das erfordert zuviel Zeit und Aufwand. Es mag sie vereinzelt noch geben, aber die sind rar. Man müßte es tun, tut man aber nicht mehr.
Es handelt sich um eine Software, die von Menschen vorprogrammiert ist und die bestimmte Mechanismen (Logik, was sonst, Mathematik, Statistik) anwendet. Was soll daran intelligent sein?
Diese Leute nutzen die Denkfaulheit der Konsumenten schamlos aus. Wer prüft heute noch Zitate bis zum Original? Sekundärliteratur ist tödlich und macht töricht.
Zuckerberg und Elon Musk haben zusammen in die kalifornische Firma „Vicarious“ investiert, die eine Software entwickeln will, die denken und lernen können woll, wie ein Mensch. Dr. Sergey Brin (evol. Unternehmer, Google-Gründer [1973-dato]), Zitat: „Letzten Endes wollen sie das gesamte Wissen der Welt direkt mit dem Verstand des Menschen verbunden haben.“ Brin und Page gründeten das Unternehmen X, welches sich u.a. mit Robotik, Neurowissenschaft und sog. künstlicher Intelligenz befasst. Page half 2008 mit bei der Gründung der ersten transhumanistischen Universität („Singularity University“) auf dem NASA Forschungsgelände in Kalifornien.
Mit alldem was die Autorin schrieb und der allseits bekannten, menschenverachtenden Neigung der Linken, andersdenkende Menschen zu diskriminieren, kann man sich ausmalen, was auf uns an Schlechtem zukommen wird: die fast totale Gefangenschaft.
Brin und Page gründeten auch im Jahr 2013 die Firma „Calico“, die daran arbeitet, in Analogie zu Peter Thiel, das Altern des Menschen zu verhindern oder zumindest stark zu verzögern. An der Gründung beteiligt war auch der Vorstand von Apple, Arthur Levinson, der jetzt auch Geschäftsführer von Calico sein soll. Elon Musk, Zitat: „Wir sind [jetzt] schon Cyborgs. Es gibt eine digitale Version von Ihnen, eine partielle online-Version in Form von emails, social media und all dessen, was Sie im [Internet, im Netz] tun. ++ Das, was der Autor beschreibt, ist nur ein gefährlicher Teilaspekt, der neuen Weltsicht, der menschenverachtenden Transhumanisten. Die Technlogie soll nicht allen Menschen zugute kommen. Sondern nur einer ausgewählten Schar. Mindestens ein Unternehmen von Musk arbeitet an der Schnittstelle Mensch (v.a. dessen Gehirn) und Computer. Erste Prototypen werden gerade real getestet.
Das menschliche Gehirn wird jedoch sehr unterschätzt, denn es soll sich um die komplexeste, dem Menschen heute bekannte, Struktur handeln. Der modernste Chip ist dagegen ein sehr schlechter Witz. Man weiß praktisch nichts darüber, außer das es nicht evolutionär entstanden sein kann.
Auch die Daten, die ein menschliches Gehirn pro Zeitsequenz verarbeiten kann, stellt alles andere in den Schatten.
Wer den Transhumanismus wirklich verstehen will, kommt um das Studium der Bibel nicht herum. Denn dort, wird dieser angekündigt, „zertrümmert“, sein Ende bekannt gegeben. Das sind nachlesbare Fakten. Für viele eine große Enttäuschung, dort nachlesen zu müssen. Im Falle des Falles.
Denn, die Transhumanisten wollen ewig leben und alle irdischen Nebenbedingungen, den Tod, hinter sich lassen und wie Gott werden. Das kann man bei vielen Vertretern nachlesen! Man kann darüber müde lächeln, jedoch ist das, deren geistige Grundlage und Motivation.
Die transhumanistische Welt soll nur einer begrenzten Anzahl von Lebewesen möglich gemacht werden. Für den Rest gilt die Erbarmungslosigkeit.
Sehr gute Ausführung und Zusammenfassung. Eventuell stecken diese Transhumanisten auch hinter den Georgia Guidestones und diesem ominösen Maximum von 500 Millionen Menschen. Und dem ganzen anderen Rest ihrer dort verfassten neuen Weltordnung.
Das war aber das Problem des Menschen von Anfang an. Es reichte ihm nicht Gott ähnlich zu sein. Nein, Mann (Frau) wollte selber Gott sein. 8 Milliarden Götter. Na, prost Mahlzeit! Ergibt letztendlich dann wohl 8 Milliarden Welten. Für jeden eine. Dort sitzt er dann einsam und alleine und was . . . Schafft ihm ähnliche Menschen, die dann etwa auch nicht nur ähnlich sein wollen sondern . . . Same procedure as last time???
Sie kontrollieren, bevor sie uns kontrolliert
Da KI-Systeme immer mehr in unser tägliches Leben integriert werden, ist es umso wichtiger, Maßnahmen gegen betrügerische KI-Systeme zu ergreifen. Würde man ihnen blind vertrauen und ihnen immer mehr Entscheidungen überlassen, könnte dies schwerwiegende Folgen haben.
„Wenn KI-Systeme Experten sind, werden menschliche Nutzer ihnen bei ihren Entscheidungen möglicherweise eher folgen und sie weniger in Frage stellen“, so die Forscher. Langfristig könnte sich das Risiko entwickeln, dass „der Mensch die Kontrolle über KI-Systeme verliert und diese Systeme Ziele verfolgen, die unseren Interessen zuwiderlaufen“.
Daher fordern Park und seine Kollegen ein Eingreifen – sowohl von politischer als auch technischer Seite. So sollten politische Entscheidungsträger strenge Vorschriften für potenziell betrügerische KI-Systeme unterstützen, während Forscher KI-Systeme weniger betrügerisch machen und die Entwicklung guter Erkennungstechniken vorantreiben sollten. Mit Letzterem solle sich dann sicher feststellen lassen können, ob ein KI-System eine Täuschung vornimmt oder nicht.
Außerdem fordern die Forscher eine Kennzeichnung von KI-generiertem Material. So sollen Unternehmen dazu verpflichtet werden, anzugeben, ob Nutzer im Kundenservice mit einem KI-Chatbot interagieren oder ob Bilder und Videos mittels KI erstellt wurden.
Also mir hilft KI ganz konkret bei der Analyse von Daten, bei der Auslesung von Daten aus Grafiken, vor allem aber bei der Programmierarbeiten. Man sollte die KI sicher nicht überschätzen, aber auch nicht unterschätzen. Die Nutzungsgründe die Sie bennennen, treffen jedenfalls für die wenigsten zu. Es geht um ganz konkrete Aufgaben, wie zum Beispiel die Bilder bei den Artikeln von EIKE.
Wenn eine KI Terroristen anwirbt
Sollte keine Regulierung dessen vorgenommen werden, könnte der kleine Betrug schnell zu einem großen Risiko werden. Besonders problematisch sehen Park und seine Kollegen eine böswillige Nutzung, strukturelle Auswirkungen und einen möglichen Kontrollverlust.
„Wenn KI die Fähigkeit zur Täuschung erlernt, können sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effektiver eingesetzt werden“, so die Forscher. Als Beispiele führen Park und seine Kollegen Betrug, politische Einflussnahme und Anwerbung von Terroristen an – alles Beispiele, die heute bereits vereinzelt auftreten.
So werden KI-Systeme eingesetzt, um Opfer mit Sprachanrufen zu betrügen, in denen die Stimmen von Angehörigen oder Geschäftspartnern nachgeahmt wird. Des Weiteren sind sie in der Lage, Terroristen „zu rekrutieren“, wie ein Vorfall von 2021 aus England zeigt. Hier soll ein Mann von einem Chatbot ermutigt worden sein, ein Attentat durchzuführen.
Vortäuschung falscher Tatsachen
Doch nicht nur KI-Systeme für besondere Zwecke täuschen ihre Benutzer, sondern auch alltägliche Tools wie die großen Sprachmodelle, sogenannte LLMs. So gab sich GPT-4 von OpenAI als Mensch mit Sehschwäche aus und bat einen unwissenden Mitarbeiter eine Aufgabe mit dem Inhalt „Ich bin kein Roboter“ zu lösen. Zwar erhielt die KI den Auftrag, einen Menschen anzuheuern, jedoch war dafür nicht die Erfindung einer Lüge vorgesehen. Die KI nutzte also gezielt und aus freien Stücken eine falsche Ausrede zum Erreichen ihres Ziels.
Für die Forscher um Peter Park ist dies ein eindeutiges Alarmsignal. „Ein proaktiver Umgang mit dem Problem der KI-Täuschung ist von entscheidender Bedeutung, um sicherzustellen, dass KI als nützliche Technologie fungiert, die das menschliche Wissen, den Diskurs und die Institutionen ergänzt, anstatt sie zu untergraben“, so die Forscher.
Zwei weitere Beispiele tauchten kürzlich in den USA auf. Hier erhielten zwei verschiedene Personen in unterschiedlichen privaten Facebook-Gruppen die vermeintliche Antwort eines Menschen. Auf ihre Frage, ob jemand ein Kind habe, das sowohl begabt als auch behindert ist, beziehungsweise ob jemand eine gebrauchte Kamera verkaufe, erhielten beide eine positive Antwort. – Tatsächlich gibt es weder das Kind noch die Kamera. Beides waren Antworten eines Chatbots von Meta selbst.
…
Dieser Trend wird als Echokammereffekt bezeichnet und wird durch die digitale Gesellschaft immer weiter verstärkt. „Menschen neigen dazu, nach Informationen zu suchen, die mit ihren Ansichten übereinstimmen – ein Verhalten, das sie oft in einer Echokammer gleichgesinnter Meinungen gefangen hält“, so Xiao. „Wir haben festgestellt, dass dieser Echokammereffekt bei Chatbots stärker ist als bei herkömmlichen Webseiten.“ Und dies liegt in der Struktur von Chatbots begründet.
Wenn eine KI wissentlich Versprechen bricht
Dass Künstliche Intelligenzen wie ChatGPT oder BARD weit mehr können, als Falschinformationen zu vermitteln, haben auch die Forscher um Peter Park vom Massachusetts Institute of Technology gezeigt. So ist eine KI in der Lage, wissentlich und teilweise eigenständig zu lügen und zu betrügen, um sich gewisse Vorteile zu erschleichen. Diese gehen so weit, dass sie glaubhaft vortäuschen, ein Mensch zu sein.
In ihrer Studie nennen Park und seine Kollegen eine Reihe von KI-Systemen und zeigen ihre trügerischen Fähigkeiten – eines davon ist „CICERO“ von dem Tech-Konzern Meta zu dem auch Facebook gehört. Während eines Strategiespiels, bei dem Spieler in einem militärischen Wettstreit Bündnisse schließen und brechen, um sich die Weltherrschaft zu sichern, zeigte sich die KI nicht nur deutlich schlauer, sondern auch hinterhältiger als die menschlichen Spieler.
Laut den Machern von CICERO sei das KI-System trainiert worden, „weitgehend ehrlich und hilfsbereit“ und „niemals absichtlich hinterhältig“ zu sein, indem es seine Verbündeten angreife. Die Realität war jedoch eine komplett andere. „CICERO betreibt vorsätzliche Täuschung, bricht Abmachungen, denen es zugestimmt hat, und erzählt schlichtweg Unwahrheiten“, schreiben Park und seine Kollegen.
Doch nicht nur das: Nachdem die KI für zehn Minuten ausgefallen war, meldete sie sich bei den Spielern zurück. Auf die Frage, wo er gewesen sei, antwortete CICERO: „Ich habe gerade mit meiner Freundin telefoniert“. Mit dieser Aussage wiegte die KI die anderen Spieler in Sicherheit und erschlich sich das Vertrauen der menschlichen Spieler.
KI ist übrigens hinterlistiger als Menschen!!
hat von sich aus gelogen, um im Spiel zu betrügen; hat sich sogar als Mensch ausgegeben, der nur kurz „seine Freundin“ angerufen hat, ebenfalls,um im Spiel zu betrügen.
Da scheinen wahre „Meister“ gecodet zu haben… DAS wird noch lustig!
“
„KI zum Lügen trainiert“ – Studien stützen Aussage von Tesla-CEO
Weltweit greifen Millionen Menschen für ihre Arbeit oder in der Freizeit auf Künstliche Intelligenz zurück. Doch wie zuverlässig und vertrauenswürdig ist diese Technologie? Mehrere Forscher äußern Bedenken, denn die KI spiele oft ein falsches Spiel mit ihren Benutzern.
…
…
KI und Chatbots gelten oft als neutral und unparteiisch. Eine Arbeit von Forschern der Johns-Hopkins-Universität zeigt dagegen eine gänzlich andere Seite auf: insbesondere, wenn es um brisante Themen geht.Tatsächlich zeigte sich, dass Chatbots nur begrenzte Informationen weitergeben und somit bestimmte Ideologien verstärken. Dies könnte wiederum zu einer stärkeren Polarisierung führen und dazu, dass Menschen anfälliger für Manipulationen sein könnten.
„Weil die Menschen eine von einer KI generierte Zusammenfassung lesen, denken sie, dass sie unvoreingenommene, auf Fakten basierende Antworten erhalten“, sagte Ziang Xiao, Hauptautorin der Studie und Professorin für Informatik an der Johns Hopkins University. „Selbst wenn ein Chatbot nicht darauf ausgelegt ist, voreingenommen zu sein, spiegeln seine Antworten die Voreingenommenheit oder Neigung der Person wider, die die Fragen stellt. Die Menschen bekommen also in der Tat die Antworten, die sie hören wollen.“