TikTok bereitet auch Menschenrechtsorganisationen Sorge. Lena Rohrbach, Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland, erklärt, wie junge Menschen auf TikTok in eine Abwärtsspirale geraten können.
Amnesty International kritisiert TikTok als Gefahr für junge Menschen. Warum?
Amnesty hat kürzlich Untersuchungen durchgeführt, die auf Menschenrechtsverstöße auf TikTok aufmerksam machen. Dafür wurden mehr als 30 Testkonten von vermeintlich 13-jährigen Nutzern eingerichtet. Nach kurzer Zeit wurden schon Inhalte ausgespielt, die Suizidgedanken normalisieren oder sogar romantisieren.
Warum werden gerade solche Inhalte angezeigt?
TikTok ist hochgradig personalisiert: Man kann endlos durch Inhalte scrollen und der Algorithmus passt sich immer mehr an eigene Interessen an. Wer sich für mentale Gesundheit interessiert, sich über Depressionen infomieren will, der bekommt nach wenigen Minuten massenhaft Videos zu dem Thema. Kinder und Jugendliche, die unsicher sind, was ihren Körper oder ihre Psyche angeht, werden immer weiter mit passenden Inhalten gefüttert. Alles bei TikTok ist darauf ausgerichtet, den Nutzer süchtig zu machen und so lange wie möglich auf der Plattform zu halten.
Ist das nicht in allen Sozialen Netzwerken so?
Die Probleme, die wir auf TikTok festgestellt haben, gibt es auch auf anderen Plattformen. Bei TikTok sehen wir aber eine besondere Gefahr, weil vor allem junge Teenager begeisterte Nutzer sind. Und das liegt zum großen Teil an den Algorithmen, die sich hier besonders schnell an das Konsumverhalten anpassen.
Soll das heißen, junge Leute, die eigentlich dringend Hilfe bräuchten, können sich stattdessen in einer Blase aus Suizidgedanken verirren?
Genau. Man fällt in ein Kaninchenloch. In dem Augenblick, in dem Menschen – vor allem Kinder und Jugendliche – nach Themen wie Depressionen, Selbstverletzung und Suizid suchen, müsste man ihnen eigentlich Informationen geben, die ihnen helfen, da rauszukommen. Aber der Algorithmus zeigt zu diesen Themen einfach mehr und mehr und mehr an.
Gibt es keine gesetzliche Regelung für das Problem?
Das kommt darauf an, in welchem Land dieser Welt TikTok genutzt wird. Hier in Europa gibt es den Digital Services Act, der dieses Jahr voll in Kraft tritt. Das Gesetz verpflichtet die Plattformen, sich systematisch anzuschauen, welche Risiken ihr Geschäftsmodell mit sich bringt. Demnach müsste man sich auf TikTok zumindest auch für eine andere Startseite entscheiden dürfen, bei der Nutzer nicht durch die Algorithmen an die Plattform gefesselt werden. Das bisherige Geschäftsmodell ist extrem suchtgefährdend – da sollten Kinder und Jugendliche eigentlich unter besonderem Schutz stehen. Wir können aber noch nicht beurteilen, wie erfolgreich das Gesetz funktionieren wird, und appellieren an die Betreiber von TikTok, ihrer Sorgfaltspflicht nachzukommen. Interview: Kathrin Braun