Cap Allon

Soziale Medien entscheiden, was zu sehen ist, was verstärkt verbreitet wird und wer es sieht. In den letzten zehn Jahren wurden in diesen Netzwerken verstärkt Inhalte zum Thema Klima verbreitet, insbesondere an jüngere Nutzer gerichtet.

Es werden Worst-Case-Szenarien in den Vordergrund gestellt, langfristige Szenarien als unmittelbare Bedrohungen dargestellt, und die Botschaften drehen sich um Katastrophen und Unausweichlichkeit. Alternative Interpretationen und Unsicherheiten finden weitaus weniger Beachtung – und können in vielen Fällen sogar dazu führen, dass man gesperrt wird (hüstel).

Social-Media-Algorithmen sind darauf ausgelegt, die Nutzer-Interaktion zu maximieren. Inhalte, die starke emotionale Reaktionen hervorrufen – insbesondere Angst und Dringlichkeit –, erzielen bessere Ergebnisse. Infolgedessen werden sie mit größerer Wahrscheinlichkeit beworben, empfohlen und den Nutzern wiederholt angezeigt. Dadurch entsteht eine Rückkopplungsschleife. Inhalte, die Alarmstimmung verbreiten, verbreiten sich weiter, erzielen mehr Interaktion und werden dann erneut verstärkt.

Darüber hinaus stützen sich die Plattformen auf externe Partner (d. h. „Faktenprüfer“), um Inhalte, die als „irreführend“ gelten, zu kennzeichnen oder herabzustufen, insbesondere in Bereichen wie dem Klimawandel. Das bedeutet, dass bestimmte Narrative weiter verstärkt werden, während andere in ihrer Reichweite eingeschränkt werden.

Jugendliche und junge Erwachsene gehören zu den aktivsten Nutzern dieser Plattformen und sind zudem am anfälligsten für wiederholte negative Botschaften. Sie sind noch dabei, ihr Weltbild zu entwickeln, und eine anhaltende Konfrontation mit angstbasierten Narrativen kann dieses nachhaltig prägen.

Unternehmen wie Meta sind bereits wegen der Auswirkungen ihrer Plattformen auf die psychische Gesundheit in die Kritik geraten. Wenn Algorithmen konsequent Inhalte fördern, die zu Ängsten oder psychischen Belastungen beitragen, geht das Problem über redaktionelle Voreingenommenheit hinaus und wird zu einer Frage der Haftung.

Ein System, das darauf ausgelegt ist, das Engagement zu maximieren, wird Inhalte bevorzugen, die Nutzer dazu bringen zu reagieren. Angst funktioniert am besten, also dominiert sie. Gleichzeitig ist Angst ein mächtiges politisches Instrument – sie sorgt für Aufmerksamkeit (oder Ablenkung) und Gehorsam. Die Anreize stimmen überein. Was sich in den sozialen Medien am effektivsten verbreitet, ob organisch oder auf andere Weise, verstärkt zufällig auch die Botschaften, auf die Regierungen angewiesen sind.

Wenn Algorithmen systematisch Inhalte fördern, die zu Ängsten oder psychischen Belastungen beitragen, geht das Problem über redaktionelle Voreingenommenheit hinaus und wird zu einer Frage der Haftung.

[Hervorhebung im Original]

Link: https://electroverse.substack.com/p/early-snow-for-aussie-alps-a-meter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken